Logistic Regression

yeoni·2023년 6월 14일
0

머신러닝

목록 보기
10/40

1. Logistic Regression

  • 분류 문제는 0 또는 1로 예측해야 하나 Linear Regression을 그대로 적용하면 예측값 hθ(x)h_{\theta}(x)는 0보다 작거나 1보다 큰 값을 가질 수 있다.
  • hθ(x)h_{\theta}(x)가 항상 0 ~ 1을 가지는 모델
    g(z)=11+ezg(z) = \frac{1}{1 + e^{-z}}

분류 문제용 hypothesis

Decision Boundary1

Decision Boundary2

Cost Function

J(θ)=1mi=1mCost(hθ(xi),yi)Cost(hθ(x),y)={log(hθ(x))y=1log(1hθ(x))y=0}J(\theta) = \frac{1}{m}\sum^{m}_{i=1} Cost(h_{\theta}(x^i),y^i)\\ Cost(h_{\theta}(x),y) = \begin{Bmatrix} -log(h_{\theta}(x)) \quad y=1\\-log(1 - h_{\theta}(x)) \quad y=0\\ \end{Bmatrix}

Learning 알고리즘은 동일

  • 수렴할 때까지 반복
  • α\alpha : 학습률(learning rate)
    θ:=θαddθJ(θ)\theta := \theta - \alpha\frac{d}{d\theta}J(\theta)

Reference
1) 제로베이스 데이터스쿨 강의자료

profile
데이터 사이언스 / just do it

0개의 댓글