Sigmoid vs Softmax

waternet·2022년 9월 3일
0

softmax


K개의 클래스 구분 결과를 확률처럼 해석
Classification function
보통은 output 노드 바로 뒤에 부착됨.

Sigmoid


로지스틱 회귀 이진 클래스 분류로 사용
인공신경망에서 ReLU가 등장하기 이전에 활발하게 사용되었던 activation function(활성화 함수)
hidden 노드 바로 뒤에 부착됨.

수학적으로는 서로 같은 함수
클래스가 2개냐 K개냐로 차이가 있을 뿐.

profile
wanna be Crypto Warrior

0개의 댓글