# RWKV

1개의 포스트
post-thumbnail

[논문리뷰] RWKV: Reinventing RNNs for the Transformer Era

RWKV: Reinventing RNNs for the Transformer Era Problem posing Limitations of Transformer Transformer는 NLP에서 엄청난 파급력을 지녔지만 memory와 time complexity 측

2023년 6월 5일
·
0개의 댓글
·