Transformer 기반의 non-autoregressive TTS 모델, Pre-trained attention alignment가 필요함
All of statistics - 2. Random Variable
All of Statistics, Chapter 1
Reference Encoder와 Style Token Layer를 통해 얻어진 Style embedding을 Tacotron2에 추가한 감정 음성 합성 모델
Python, Algorithm, Greedy
Greedy
KLUE 5강 강의
KLUE RE 실험, 4강 강의 정리
KLUE RE Baseline 분석
KLUE RE 대회 요약
KLUE RE baseline code 분석
Transformer review
Advanced Self-supervised Pre-trained Language Models
Self-supervised Pre-trained Models
GPT-1, BERT
Transformer
필수과제 3 Subword level Language Model
Beam Search, BLEU score
Seq2seq, Attention