728x90
최적선을 찾기 위해 다양한 함수를 실험해 봐야 하는데. 이 시도하는 함수 하나하나를 '가설 함수'
가설 함수 표현법 =
- 선형 회귀 : 가장 적절한 θ 값들을 찾아내는 것
평균 제곱 오차
오차의 값을 제곱한 후 평균을 구하면 그 값이 평균 제곱 오차(MSE) 이다.
- 제곱을 하는 이유
1. 모두 양수로 만들기 위해서
2. 오차의 값을 더욱 부각시키기 위해서
평균 제곱 오차 평균을 구하는 공식
시그마 : 오른쪽 식에 i = 1 부터 i = m 까지 하나씩 대입
제곱 오차를 모두 더한 후 m으로 나눈 값
평균 제곱 오차가 크면 : 가설 함수가 데이터에 잘 안 맞다.
평균 제곱 오차가 작다면 : 가설 함수가 데이터에 잘 맞다.
손실 함수(Loss Function)
- 가설 함수의 성능을 평가하는 함수
- 손실 함수가 작으면 : 가설 함수가 데이터에 잘 맞다.
- 손실 함수가 크면 : 가설 함수가 데이터에 잘 안 맞다.
J(θ)=2m1i=1∑m(hθ(x(i))−y(i))2
선형 회귀의 경우에는 평균 제곱 오차가 손실 함수의 아웃풋이다.
728x90
반응형
'Machine learning > Machine learning 강의' 카테고리의 다른 글
머신 러닝 다중 선형 회귀(Multiple Linear Regression) #1 -다중 선형 회귀를 이용한 집값 예측하기 (0) | 2021.02.05 |
---|---|
머신 러닝 선형 회귀 (Linear Regression) #3 - scikit-learn 을 이용해 집 값 예측 프로그램 구현하기 (0) | 2021.02.02 |
머신 러닝 선형 회귀 (Linear Regression) #1 - 개념, 용어, 표현법 (0) | 2021.02.01 |
머신 러닝 기본#12 - 최소점/극소점, 극대점, 안장점 (0) | 2021.02.01 |
머신 러닝 기본#11 - 평균 변화율, 순간 변화율, 미분 (0) | 2021.01.24 |
댓글