78일차 시작.... (활성화 함수)

조동현·2022년 10월 27일
0

[교육] R

목록 보기
7/8

📊 이진 분류 활성화 함수


📌 Sigmoid 함수

  • Sigmoid 함수
    0.5를 기준으로 0 또는 1로 분류

  • 문제점
    - 베니싱 기울기 문제로 인해 학습 성능 떨어짐
    - 입력값의 감소 및 증가로 인해 기울기가 0에 수렴하게 되어 소멸됨 -> 분류 X
    - 학습 속도 저하


📌 HypericTanh 함수

  • HypericTanh 함수
    0을 기준으로 -1 ~ 1 사이의 출력값으로 분류

  • 특징
    - 입력값이 작아질수록 출력값이 0에 수렴
    - 입력값이 커질수록 출력값이 1에 수렴
    - 입력값의 감소 및 증가로 인해 기울기는 0에 수렴
    - 시그모이드의 학습 속도 저하 문제를 중심값 0으로 두어 해결

  • 문제점
    - 베니싱 기울기 문제 발생









📊 다중 분류 활성화 함수


📌 Softmax 함수

  • Softmax 함수
    시그모이드 함수를 일반화한 함수이며 0과 1사이의 값으로 분류

  • 특징
    - 0 < 출력값 < 1
    - 출력값 총합 = 1
    - 다중 클래스 분류에 사용


📌 ReLU 함수

  • ReLU 함수
    입력값이 0이하일 때 출력값은 0, 입력값이 0보다 클 때는 출력값 = x

  • 특징
    - 학습 속도 빠름
    - 연산 비용 저렴
    - 구현 간단

  • 문제점
    - Dying ReLU : 입력값이 0일 때, 기울기가 0이므로 기울기가 해당 뉴런이 죽는 문제


📌 leaky ReLU 함수

  • leaky ReLU 함수
    입력값 < 0 => [출력값 ax], 입력값 > 0 => [출력값 1]

  • 특징
    - ReLU보다 성능 높음
    - 입력값이 0일 때 기울기가 0이 되지 않아 해당 뉴런이 죽지 않는다.


📌 PReLU 함수

  • PReLU 함수
    입력값 < 0 => [출력값 ax], 입력값 > 0 => [출력값 x]

  • 특징
    - 각 레이어마다 적절한 a를 학습할 수 있다.


📌 ELU 함수

  • ELU 함수
    출력값의 중심이 거의 0에 가깝다.

  • 특징
    - Dying ReLU 문제 해결

  • 문제점
    - 연산 비용 큼


profile
데이터 사이언티스트를 목표로 하는 개발자

0개의 댓글