최적화 할 때는 다루는 숫자의 크기가 작을수록 오차의 변동성이 낮아져 파라미터 공간이 원점 근처에 있을 때 정확한 해를 빠르게 찾을 수 있다.
그래서 직선의 방정식 를 표현할 때, 가중치와 편향이 작은게 좋다.
가중치 감소(weight decay)는 학습과정에서 작은 크기의 가중치를 찾는 기법이다.
크기를 제한하는 제약 조건으로써 손실함수의 일부항에 표현할 수 있다.
가중치의 크기를 표현하는 정규화 항을 더하면, 최적화 과정에서 원래의 손실함수와 함꼐 정규화 항도 같이 최고화 되므로, 크기가 작은 가중치 해를 구할 수 있다.
: 손실함수 확장
: 손실함수
: 정규화
: 정규화 상수
가 커질수록 정규화 항의 비중이 커지면서 가중치 크기는 작아지고,
가 작아질수록 정규화 항의 비중이 작아져 가중치 크기는 커진다.
는 가중치의 크기를 나타내는 노름으로 정의한다.
보통: ,
회귀: 사용 = Ridge, 사용 = Lasso
가중치의 사전분포가