본문 바로가기

가설함수3

머신 러닝 로지스틱 회귀(Logistic Regrssion)#2 - 손실 함수, 로그 손실 선형 회귀에서 손실 함수는 평균제곱오차를 이용해서 했다! 로지스틱 회귀에서는 로그 손실을 사용한다! -> 손실의 정도를 로그 함수로 결정하기 때문에 로그 손실 이라고 한다. y가 1일 때 1과 멀어질수록 손실이 많아지는!! -> 로지스틱 회귀에서의 로그 손실에서는 보통 한 줄로 표현하는데 위에 식과 동일하다! i~m까지 대입하고 더한 후 m으로 나누어 평균을 구한다! (모든 데이터의 로그 손실을 계산한 후 평균을 낸다. -> 분류의 기준이 0,1이 아니라 0,1,2 3가지 이상일 경우에는!! 2021. 2. 9.
머신 러닝 로지스틱 회귀(Logistic Regrssion)#1 - 로지스틱 회귀란? 머신러닝 지도학습(회귀, 분류) | 비지도 학습 회귀(연속적인 값 예측), 분류(정해진 몇 개의 값 중 예측) -> 로지스틱 회귀는 분류! ex) 해당 메일이 정상 메일인지, 스팸 메일인지 ex) 기사가 스포츠기사인지 정치기사인지 연예기사인지 -> 선형회귀로도 분류 학습을 할 수 있지만, 선형 회귀의 경우 예외적인 데이터에 민감하게 반응하기에 잘 사용하지는 않는다. -> 데이터에 가장 잘 맞는 1차 함수를 찾는다. = 선형 회귀 -> 데이터에 가장 잘 맞는 시그모이드 함수를 찾는다. = 로지스틱 회귀 무조건 0과 1사이 값을 리턴한다. X가 엄청나게 크면 1에 가까워지고 X가 엄청나게 작으면 0에 가까워진다. 따라서 시그모이드 함수는 무조건 0과 1사이 값을 리턴한다. -> 선형 회귀(1차 함수)의 경우.. 2021. 2. 8.
머신 러닝 선형 회귀 (Linear Regression) #2 - 가설 함수, 평균 제곱 오차, 손실 함수 최적선을 찾기 위해 다양한 함수를 실험해 봐야 하는데. 이 시도하는 함수 하나하나를 '가설 함수' 가설 함수 표현법 = - 선형 회귀 : 가장 적절한 θ 값들을 찾아내는 것 평균 제곱 오차 오차의 값을 제곱한 후 평균을 구하면 그 값이 평균 제곱 오차(MSE) 이다. - 제곱을 하는 이유 1. 모두 양수로 만들기 위해서 2. 오차의 값을 더욱 부각시키기 위해서 평균 제곱 오차 평균을 구하는 공식 시그마 : 오른쪽 식에 i = 1 부터 i = m 까지 하나씩 대입 제곱 오차를 모두 더한 후 m으로 나눈 값 평균 제곱 오차가 크면 : 가설 함수가 데이터에 잘 안 맞다. 평균 제곱 오차가 작다면 : 가설 함수가 데이터에 잘 맞다. 손실 함수(Loss Function) - 가설 함수의 성능을 평가하는 함수 - .. 2021. 2. 1.
728x90
반응형