⌜Attention Is All You Need⌟는 transformer에 관한 논문이다. transformer가 등장하기 이전의 sequence transduction model들은 RNN, LSTM, GRU 등 순환신경망에 의존하고 있었다. 이러한 sequence
⌜An Image Worth 16 x 16 Words : Transformers for Image Recognition At Scale⌟는 ViT(Vision Transformers)에 관한 논문이다.