2-pi-r.log
로그인
2-pi-r.log
로그인
[딥러닝 1단계] 2. 로지스틱 회귀
2-pi-r
·
2024년 3월 17일
팔로우
0
Euron
딥러닝
0
인공지능
목록 보기
3/7
강의
로지스틱 회귀 (Logistic Regression)
정의
주로 Binary Classification 문제에 사용되는, 통계학적인 머신러닝 알고리즘
입력 변수의 Linear Combination 을 로지스틱 함수에 적용하여 확률을 계산하고, 이를 기반으로 Binary Classification를 수행
Linear Combination
: 주어진 변수들을 상수와 가중치의 곱으로 더한 것
Binary Classification
: 0 or 1로 분류
그림 ex)
로지스틱 회귀
신경망 모델 (여러 층이 있음.)
선형 회귀
(Linear Regression)
예측을 위한 직선(선형 방정식)을 학습
y
^
=
W
T
X
+
b
ŷ = W^T X+b
y
^
=
W
T
X
+
b
sigmoid 함수
정의
Logistic Regression + Binary Classification에서 ŷ는
y=1일 확률
을 의미 → 따라서 결과값을 0~1로 바꿔주기 위해 sigmoid를 씌움
y
^
=
σ
(
W
T
X
+
b
)
ŷ =σ(W^T X+b)
y
^
=
σ
(
W
T
X
+
b
)
오차
(
y
−
y
^
)
(y-ŷ)
(
y
−
y
^
)
계산하기
Loss 함수
:
한
입력 data에서의 오차
L
(
y
^
,
y
)
L(ŷ,y)
L
(
y
^
,
y
)
구체적인 수식
Cost 함수
:
전체
입력 data에서의 오차
Loss 함수의 평균
J
(
w
,
b
)
J(w,b)
J
(
w
,
b
)
2-pi-r
팔로우
이전 포스트
[딥러닝 1단계] 1. 개념
다음 포스트
[딥러닝 1단계] 3. 파이썬에서의 벡터화
0개의 댓글
댓글 작성