Logistic Regression to Neural Network
How Activation Function Works?
ReLU 함수를 적용했을 때의 결과: x축으로 사영이 일어나게 된다.
선형 분류기로 분류하기 용이한 형태가 되었다는 것을 확인할 수 있다.
동일한 비선형적 데이터라 해도, 어떤 함수를 거치느냐에 따라 선형 변환 가능 여부가 결정된다.
Softmax