
Attention is All you Need(2017) 논문을 읽고 내용 요약 및 정리

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding(2018)

RoBERTa: A Robustly Optimized BERT Pretraining Approach(2019) 논문을 읽고 내용 요약 및 정리

ELECTRA: PRE-TRAINING TEXT ENCODERS AS DISCRIMINATORS RATHER THANGENERATORS(2020) 논문을 읽고 내용 요약 및 정리

XLNet: Generalized Autoregressive Pretraining for Language Understanding(2019) 논문을 읽고 내용 요약 및 정리

DeBERTa: Decoding-enhanced BERT with Disentangled Attention(2020) 논문을 읽고 내용 요약 및 정리

지금까지 스터디한 모델들에 대해서 간단하게 정리, 비교해보고자 한다.

Deep contextualized word representations(2018) 논문을 읽고 내용 요약 및 정리

Language Models are Few-Shot Learners(2020) 논문을 읽고 내용 요약 및 정리

Neural Architectures for Named Entity Recognition(2016) 논문을 읽고 내용 요약 및 정리

Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks(2019) 논문을 읽고 내용 요약 및 정리

BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension(2019) 논문을 읽고 내용 요약 및 정리

ViT(비전 트랜스포머) 논문 읽기

LLaMA와 Alpaca 읽어보기

Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer(2019) 읽어보기

You Look Only Once : Unified, Real-Time Object Detection(2016) Paper Review

YOLO9000 : Better, Faster, Stronger (YOLOv2) 논문 읽기

YOLOv9: Learning What You Want to Learn Using Programmable Gradient Information (2024, arxiv) 읽어보기

A Survey of Transformers (2021) 논문 스터디 - (1)

BLIP : Bootstrapping Language-Image Pre-training for Unified Vision-Language Understanding and Generation (2022, arXiv) paper review

LLM-Planner: Few-Shot Grounded Planning for Embodied Agents with Large Language Models (ICCV 2023) 논문 읽기

요즘 기술 발전 속도 따라가기 버거운 사람의 DeepSeek-R1 technical report review

읽고 써보는 Qwen 2.5 테크니컬 리포트 리뷰 🫠

SayCan 읽으라고? 너 누군데?

DETR (End-to-End Object Detection with Transformer, ECCV 2020) 논문 리뷰

DETR (End-to-End Object Detection with Transformer, ECCV 2020) 논문 리뷰

(DAY 1) Qwen3 technical report review

(DAY 2) Segment Anything (SAM) paper review

(DAY 3) GroundingDINO paper review

(DAY 4) RT-1 paper review

Qwen3-Next post review

(DAY 5) RAG(Retrieval Augmented Generation) paper review

(DAY 6) LoRA: Low-Rank Adaptation of Large Language Models paper review