
회귀는 여러 개의 독립 변수와 한 개의 종속 변수간의 상관관계를 모델링하는 기법입니다!
예를 들어 여러 특징들에 따른 집값에 대해 알아볼 때, 독립 변수에는 방 개수, 집 크기, 주변 학군 등이 있을 수 있고, 종속 변수는 집값입니다!
또한, 독립 변수의 값에 영향을 미치는 회귀 계수로, 딥러닝의 목적인 가중치에 해당합니다!

독립 변수를 집 크기 1개를 사용하여, 집값을 모델링하면 위와 같은 그래프가 나올 수 있습니다!
여기에서 y 절편을 bias라고 칭하고, W0에 해당됩니다.
위의 그래프에서 보이듯이, 각각실제 값과 예측 값의 차이들의 합이 최소가 되는 모델을 만드는 것이
최적의 회귀 모델을 만드는 것입니다.
그러기 위해선, 회귀 계수를 찾아내는 것이 목적이겠죠???
(집 크기라는 독립 변수를 조정할 수는 없으니, 회귀 계수를 조정하여 최적의 모델을 찾아내는 겁니다!)
여기서 오류 값을 잔차라고도 부릅니다.
error의 제곱 == RSSW(가중치) 변수가 중심변수임을 인지! (따라서 나중에 미분을 할 때, W(가중치)에 대해서 미분)MSE로 표현 가능합니다!