Lasso, Ridge : Linear Regression이 고차원 공간에 overfitting(너무 많은 feature가 있는 경우 전부다 고려해서 학습이 잘 안됨, generalization 잘 안됨)이 쉽게 되는 문제를 해결한 기법.
Regulization term
이라고 함.Regulization term
이라고 함.Lasso나 Rigde를 적용했을 때, 성능이 향상된다면 Linear Regression 모델에 사용되는 feature vector가 차원을 줄일 필요가 있다는 얘기가 됨.
→ feature selection이 성능 향상을 가져온다
Regulization을 할 때, 가중치를 사용하는 방식을 weight decay
라고 함.
weight decay를 주게되면, Gradient descent algorithm이 loss space를 탐색할 때 제약조건을 받게되는 효과가 있음.(첫 번째 그림 청록색 영역)
제약조건 때문에, 특정 weight들이 사라지는 효과가 생기면서(0에 가까워짐) feature subset selection을 하는 효과가 있음.