profile
투빅스 NLP 논문세미나입니다!

PADA: Example-based Prompt Learning for on-the-fly Adaptation to Unseen Domains

작성자: 조효원

2022년 9월 15일
·
0개의 댓글
·

TSDAE : Using Transformer-based Sequential Denoising Auto-Encoder for Unsupervised Sentence Embedding Learning

16기 전민진 | Unsupervised sentence embedding method, TSDAE

2022년 8월 29일
·
0개의 댓글
·
post-thumbnail

Learning to Repair- Repairing model output errors after deployment using a dynamic memory of feedback

LLM이 LLM의 틀린 정답을 수정한다! | 장준원

2022년 8월 10일
·
0개의 댓글
·

SMART : Sentence as Basic Units for Text Evaluation

16기 전민진 | 새로운 문장 단위 metric의 등장

2022년 8월 8일
·
0개의 댓글
·
post-thumbnail

Leveraging Passage Retrieval with Generative Models for Open Domain Question Answering (FiD)

Decoder에서 정보를 합쳐볼까? | 장준원

2022년 8월 6일
·
0개의 댓글
·
post-thumbnail

Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks

내가 새로운 정보를 반영해볼게! | 장준원

2022년 7월 25일
·
0개의 댓글
·

PaLM: Scaling Language Modeling with Pathways (2)

2편! | 15기 조효원

2022년 6월 1일
·
0개의 댓글
·
post-thumbnail

ALBERT: A Lite BERT for Self-supervised Learning of Language Representations

BERT를 경량화시킨 ALBERT | 17기 홍종현

2022년 5월 25일
·
0개의 댓글
·
post-thumbnail

PaLM: Scaling Language Modeling with Pathways (1)

초대규모 언어모델 PaLM! | 15기 조효원

2022년 5월 25일
·
1개의 댓글
·

Poly-Encoders : Transformer Architectures and Pre-training Strategies for Fast and Accurate Multi-sentence Scoring

폴리인코더를 통해 빠르고 정확하게 multi-sentence를 scoring해보자! | 17기 신은아

2022년 5월 18일
·
0개의 댓글
·
post-thumbnail

Extractive summarization as Text Matching (MatchSum)

Extractive Summarization에 Semantic text maching을 도입한 MatchSum | 17기 임수진

2022년 5월 11일
·
0개의 댓글
·

Characterizing the Efficiency vs. Accuracy Trade-off for Long-Context NLP Models

입력이 긴 모델에 대한 observation paper | 16기 전민진

2022년 5월 11일
·
0개의 댓글
·
post-thumbnail

DiffCSE: Difference-based Contrastive Learning for Sentence Embeddings

간단한 아이디어로 sentence embedding 성능을 올린 DiffCSE!

2022년 5월 10일
·
0개의 댓글
·

MERL:Multimodal Event Representation Learning in Heterogeneous Embedding Spaces

MERL | 17기 박나윤

2022년 5월 4일
·
0개의 댓글
·
post-thumbnail

Transformer-xl: Attentive language models beyond a fixed-length context

Extra-Large한 Language Model을 만들어볼까? | 16기 장준원

2022년 4월 23일
·
1개의 댓글
·

DAPT : Don't Stop Pretraining. Adapt Language Models to Domains and Tasks.

아직 사전학습을 멈출 순 없다! | 15기 김재희

2022년 4월 6일
·
0개의 댓글
·
post-thumbnail

GPT-3: Language Models are Few-Shot Learners

패러다임의 변화! GPT3! | 15기 조효원

2022년 3월 30일
·
0개의 댓글
·

BertGCN: Transductive Text Classification by Combining GCN and BERT

BertGCN | 17기 박나윤

2022년 3월 29일
·
0개의 댓글
·

GPT2 - Language Models are Unsupervised Multitask Learners

GPT2 | 17기 홍종현

2022년 3월 28일
·
0개의 댓글
·
post-thumbnail

Text Summarization with Pretrained Encoders (BERTSUM)

BERT를 Summarization task에 적용시킨 BERTSUM에 대해서 알아보자! | 17기 임수진

2022년 3월 14일
·
0개의 댓글
·