회귀(Regression) : 주어진 데이터(X)와 찾고자하는 값(y) 사이의 관계를 찾는 방법 /
찾고자하는 값 ( y = traget value)를 예측하는 방법.
Linear Regression : 로 표시되는 선형식으로 x와 y 사이의 관계를 찾는 모델(W가 여러 개 이면 다중선형회귀) → 근본 모델이므로, 정확히 알아야 딥러닝(perceptron) 이해 easy/ 다른 모델들의 근간이 되는 모델.
회귀에서 가장 많이 사용하는 loss function: MSE(Mean Squared Error)
→ SSE는 어쩔 수 없이 데이터가 늘어나면 에러가 더 늘어남
Q1. Loss가 0이되면 어떤 의미인가?
A1. y =
Q2. Loss가 0이 되는 지점을 찾을 수 있을까요? 데이터에의해결정됨
A2. 알 수 없다.(데이터에 의해 결정)
Q3. Loss가 최소가 되는 지점을 어떻게 찾을까요?
A3. 1. analytic solution(수학적으로): resource cost 무지막지하게 증가할 수 있음.
2. practical solution: 경사하강법
Gradient Desecent Algorithm을 이용하여 w,b 업데이트(loss가 최소가 되는)
Loss function(MSE)은 convex(볼록)함수, 때문에 경사하강법으로 항상 optimal solution을 찾을 수 있음.
→ why?
볼록 함수는 전역 최솟값(global minimum)이 하나만 존재하며 로컬 최솟값(local minimum)이 없음.
경사 하강법을 사용하더라도 수렴 시 전역 최적점에 도달 가능.
다시 말해, 주어진 데이터에 대해 선형 회귀 모델을 훈련시키고자 할 때, MSE를 최소화하는 가중치(weight)와 편향(bias)을 찾을 수 있음. 경사 하강법을 사용하면 MSE를 최소화하는 방향으로 모델 파라미터를 업데이트하면서 점차적으로 최적의 파라미터 값을 찾아갈 수 있음.