Machine learning/Machine learning 강의
머신 러닝 선형 회귀 (Linear Regression) #2 - 가설 함수, 평균 제곱 오차, 손실 함수
grey-hat hacker
2021. 2. 1. 16:48
728x90
최적선을 찾기 위해 다양한 함수를 실험해 봐야 하는데. 이 시도하는 함수 하나하나를 '가설 함수'
가설 함수 표현법 =
- 선형 회귀 : 가장 적절한 θ 값들을 찾아내는 것
평균 제곱 오차
오차의 값을 제곱한 후 평균을 구하면 그 값이 평균 제곱 오차(MSE) 이다.
- 제곱을 하는 이유
1. 모두 양수로 만들기 위해서
2. 오차의 값을 더욱 부각시키기 위해서
평균 제곱 오차 평균을 구하는 공식
시그마 : 오른쪽 식에 i = 1 부터 i = m 까지 하나씩 대입
제곱 오차를 모두 더한 후 m으로 나눈 값
평균 제곱 오차가 크면 : 가설 함수가 데이터에 잘 안 맞다.
평균 제곱 오차가 작다면 : 가설 함수가 데이터에 잘 맞다.
손실 함수(Loss Function)
- 가설 함수의 성능을 평가하는 함수
- 손실 함수가 작으면 : 가설 함수가 데이터에 잘 맞다.
- 손실 함수가 크면 : 가설 함수가 데이터에 잘 안 맞다.
J(θ)=2m1i=1∑m(hθ(x(i))−y(i))2
선형 회귀의 경우에는 평균 제곱 오차가 손실 함수의 아웃풋이다.
728x90
반응형