본문 바로가기
Machine learning/Machine learning 강의

머신 러닝 선형 회귀 (Linear Regression) #2 - 가설 함수, 평균 제곱 오차, 손실 함수

by grey-hat hacker 2021. 2. 1.
728x90

최적선을 찾기 위해 다양한 함수를 실험해 봐야 하는데. 이 시도하는 함수 하나하나를 '가설 함수'

 

가설 함수 표현법 = 

- 선형 회귀 : 가장 적절한 θ 값들을 찾아내는 것 

 

평균 제곱 오차

오차의 값을 제곱한 후 평균을 구하면 그 값이 평균 제곱 오차(MSE) 이다. 

 - 제곱을 하는 이유 

1. 모두 양수로 만들기 위해서

2. 오차의 값을 더욱 부각시키기 위해서 

 

 

평균 제곱 오차 평균을 구하는 공식 

시그마 : 오른쪽 식에  i = 1 부터 i = m 까지 하나씩 대입

 

제곱 오차를 모두 더한 후 m으로 나눈 값 

 

평균 제곱 오차가 크면 : 가설 함수가 데이터에 잘 안 맞다. 

평균 제곱 오차가 작다면 : 가설 함수가 데이터에 잘 맞다. 

 

손실 함수(Loss Function)

- 가설 함수의 성능을 평가하는 함수

- 손실 함수가 작으면  : 가설 함수가 데이터에 잘 맞다. 

- 손실 함수가 크면 : 가설 함수가 데이터에 잘 안 맞다.

 

J(θ)=2m1​i=1∑m​(hθ​(x(i))−y(i))2

 

선형 회귀의 경우에는 평균 제곱 오차가 손실 함수의 아웃풋이다. 

728x90
반응형

댓글