[ML] Linear Regression
Regression : Supervised Learning 중에서 결과 예측값이 범위값인 경우 사용하는 모델
Hypothesis H(x) = Wx + b
Which Hypothesis is better?
- Cost Function ( Loss )
* ( H(x) - y )^2 // 제곱을 하는 이유 : +- 를 없애고 차이가 클 때 패널티를 크게하기 위해
* 예측값과 실제값의 차이
How to minimize cost?
- Gradient descent algorithm
* Minimize cost function
* Gradient descent is used many minimization problems
* For a given cost function, cost(W,b), it will find W,b to minimize cost
* It can be applied to more general function : cost(w1, w2, ...)
* cost(W,b)의 값이 감소하지 않을 때 까지 W를 계속해서 변경한다.
Multiple Feature Linear Regression
Multiple Linear Regression
- 수치형 설명변수 X와 연속형 숫자로 이루어진 종속변수 Y 간의 관계를 선형으로 가정하고 이를 가장 잘 표현할 수 있는 회귀계수를 데이터로부터 추정하는 모델이다.
- 회귀계수들은 모델의 예측값과 실제값의 차이, 즉 error sum of squares를 최소로 하는 값들이다. 이를 만족하는 최적의 계수들은 회귀계수에 대해 미분한 식을 0으로 놓고 풀면 명시적인 해를 구할 수 있다.