Problem
: Input sequence가 너무 길어지면, parameters가 더 많이 필요함Feed forward neural net
: Neuron 이라는 단위RNN
: 입력 벡터, 출력 벡터, 은닉 상태(hidden state)라는 표현 사용
CNN
에서는 batch로 묶고 forward한 후, back 하면 동시에 계산되어 weight이 한번에 업데이트 됨RNN
은 순서가 있기에 backpropagation도 순서대로 해야한다.