데이터를 가장 잘 나타내는 선을 찾는 것!!
그 직선의 a(기울기), b(절편) 값을 찾는 것!
회귀의 목표는 연속형 반응 변수의 값을 예측 하는 것
단순 선형 회귀라는 것은 독립변수와 종속변수 간에 선형관계가 있다고 가정하고
초평면이라고 하는 선형 평면을 이용헤 모델링 하는 것
알고리즘을 이용해 최적의 a와 b값을 차자내는 것이 목표
모델의 예측값과 실제 값 사이의 오차
비용 함수의 값을 최소화하기 위해 모델의 파라미터(가중치와 편향)을 조정하는 데
사용되는 최적화 알고리즘
경사(기울기의 크기)가 0이 될때 까지 반복하여 최적의 값을 찾는다.
회귀(Regression) = 숫자 데이터값으로 예측하는것!
비용 함수 = 실제값과 예측값의 오차값
회귀문제에선 주로 비용 함수로 MSE를 사용!!
MSE를 사용하여 최적값을 찾기 위해 경사하강법을 사용!!
복잡한 모델
장점
단점
over fitting = 학습은 잘하는대 상대적으로 테스트할때 성능이 떨어짐
장점
단점
객관적이고 정량적인 평가 지표(Metric)가 필요
(평가지표가 순서상 목적이 정해지면 자동 수립)
규제량보다 더 중요!!
y = w1x1 + w2x2 + - - - +b
w갯수가 많으면 복잡 적으면 단순
입력 feature에 따라 자동으로 모델복잡도 할당
즉 입력 feature 수 = parameter의 수 => 모델 복잡도의 영향
적당한 feature 조절 해야함
모델이 알아서 모델의 복잡도를 조절할 수 있도록 시킴
10개의 parameter 에서 컴퓨터가 필요없는 weight를 제거
= 정규함(reg)의 역할
cost = MSE(성능) + Reg(weight 감소)
[3 5 1 7 ] -> [1.5 2.7 0.3 4.5]
-> [3, 5, 1, 0]
weight 내리는 2가지방법
- 전체를 골고루 내리는 방법
- L2 norm 의 관점 = 구부러진거 자체를 조금 더 구부러지게..
- 하나를 삭제해버리는 방법
- L1 norm 의 관점 = 구부러진걸 그냥 날려버림..
두개다 선택을 못하겠으면
Elatic Net 을 사용 = L1규제 + L2규제 골고루 사용
모델의 일반화 성능을 평가
새로운 데이터에 얼마나 잘 일반화되는지를 확인하는 데 중점
그리드 서치는 주로 하이퍼파라미터 튜닝에 사용
다양한 하이퍼 파라미터 값의 조합을 시도하여 최적의 조합을 찾음
크로스 벨리데이션은 모델의 일반화 성능을 평가하는 데 사용
데이터를 여러 부분으로 나누어 학습 및 검증 데이터로 사용
모델의 성능을 신뢰할 수 있는 방식으로 평가