3-3. Soft Margin Classifier

Bard·2023년 3월 26일
2

Advanced Mathematics for AI

목록 보기
13/20
post-thumbnail

본 글은 K-MOOC의 인공지능 수학 고급(Advanced Mathematics for AI) 강의를 듣고 요약한 글입니다.

Maximal Margin Classifier

이 방법은 영역을 정확하게 자르는 것이 불가능 할 수 있다.

또한 두 번째 그림처럼 Outlier에 굉장히 민감해진다.

Overfitting vs Generalization

기계학습의 목적은 주어진 데이터를 가능한한 정확히 학습하는 것이 아니다.

기계학습의 목적은 새로운 데이터에 대해서 최대한 정확하게 예측하는 것이다.

간단히 예를 들면 위 그림에서 세 번째 그림이 네 번째 그림보다 좀더 잘 설명할 수 있다는 것이다.

Idea

다음 두가지를 허용해보도록 하자.

  • margin 안에 데이터가 있어도 괜찮다.
  • decision boundary 건너편에 다른 데이터가 있어도 괜찮다.

즉, 에러들에 대해 유연해지자는 의미이다.

Soft Margin Classifier

Soft Margin Classifier 역시 이차계획법으로 정의한다.

Decision boundaryβ0+β1X1+β2X2=0\beta_0 + \beta_1 X_1 + \beta_2 X_2 = 0 일 때,

arg maxβ0,β1,β2,e(1),e(2),,e(N)M\argmax_{\beta_0, \beta_1, \beta_2, e^{(1)}, e^{(2)}, \ldots, e^{(N)}} M

for all data i=1N,y(i)(β0+β1X1(i)+β2X2(i))M(1ϵ(i))i=1 \ldots N, y^{(i)}(\beta_0 + \beta_1 X_1^{(i)} + \beta_2 X_2^{(i)}) \ge M(1-\epsilon^{(i)})

ϵ(i)0,ϵ(i)C\epsilon^{(i)} \ge 0, \sum\epsilon^{(i)} \le C

여기서 CC관대함을 나타내는 변수이다. 즉, 에러들이 C를 넘지 않는다면 상관없다는 것이다.

Penalty parameter

CC를 바로 Penalty parameter라 부르고, 이에 따라 아래와 같이 decision boundary가 바뀐다.

profile
The Wandering Caretaker

2개의 댓글

comment-user-thumbnail
2023년 4월 2일

Overfit보다는 General하게..

1개의 답글