[OCR] RNN, LSTM

Seryoung·2021년 12월 13일
0

RNN

  • Neural Net + Recurrent connection
  • 문제점: vanish/explode gradient problem
    -> Control Unit (gate)를 달자 -> LSTM

LSTM

  • 구성
    • 3개의 Gate (ftf_t, iti_t, oto_t)
    • 2개의 Output (hth_t, CtC_t)
    • 4개의 Params (WiW_i, WfW_f, WoW_o, WhW_h)
  • 기존의 RNN + Cell
  • Cell: long term memory(t-1 & t의 조합)를 기억
  • 기억할지 말지(Gate)는 데이터에 의해 학습됨
  • 모든 게이트는 hidden unit과 x를 input으로 받음
    Ct=ftCt1+itCtC_t = f_t * C_{t-1} + i_t * C_t
    ht=Ottanh(Ct)h_t = O_t * tanh(C_t)

출처

0개의 댓글