1. 로지스틱 회귀분석(Logistic Function)

  • 입력 변수가 여러 종류일 때: 다중 로지스틱 회귀

2. 회귀계수 축소법

[1] 좋은 변수는?

  • Y의 변동성을 잘 설명하면서 + 상관관계가 없는 변수들

[2] 회귀계수를 축소하는 이유

: 영향력이 없는 입력 변수의 계수를 0에 가깝게 가져간다면, 모형에 포함되는 입력 변수의 수를 줄일 수 있음

> 입력 변수 수를 줄였을 때 장점

  1. noise 제거 -> 모형 정확도 개선
  2. 모형 연산 속도 증가
  3. 다중공선성의 문제 완화 -> 모형의 해석 능력 향상

[3] 계수축소법 종류

다중 선형 회귀 vs 로지스틱 회귀

  • 다중 선형 회귀: 잔차 최소화
    minimize SSE
  • 로지스틱 회귀: 잔차 + 회귀계수 최소화
    minimize SSE + f(b)

종류 3가지

1) Ridge 회귀

  • f(b): 회귀계수의 제곱의 합
  • 람다(tuning parameter)가 클수록 보다 많은 회귀계수를 0으로 수렴(완전히 0이 되지는 않음)

2) Lasso 회귀

  • f(b): 회귀계수의 절대값의 합
  • 람다(tuning parameter)가 클수록 보다 많은 회귀계수를 0으로 수렴(완전히 0이 됨)

람다(lambda)값 설정
람다 값을 변화시켜가며 MSE가 최소일 때 람다를 탐색

Ridge vs Lasso

3) Elastic-Net 회귀

  • Ridge와 Lasso회귀의 하이브리드(정규화) 회귀 모델
profile
SV Creator

0개의 댓글