- 목표 :
- 강의 수강 목표는 5강 ~ 8강까지 (Transformer 중심으로 학습)
- 기본과제 2개 풀어보기- 결과 :
- 강의 수강 목표는 5강 ~ 8강까지 (Transformer 중심으로 학습) (O)
- 기본과제 2개 풀어보기 (O)
결론 : uniform distribution으로 초기화함
(참고 : https://pytorch.org/tutorials/beginner/transformer_tutorial.html)
[데일리스크럼]
[피어 세션]
RNN과 LSTM, Attention 구조와 방식에 대한 토론
LSTM에서 사용되는 argument들의 의미 : https://pytorch.org/docs/stable/generated/torch.nn.LSTM.html
batch, sequence length, input dimension, hidden dimension 등에 대해 논의
LSTM의 output과 h_n, c_n은 무슨 차이가 있을까?
LSTM이 NMT에 사용된다면 어떤 식으로 사용될 수 있을까?
참고 : https://wikidocs.net/24996