post-thumbnail

3장 순간 목표와 장기 목표 간의 균형

이번장 목적 : MDP를 풀 수 있는 알고리즘, 에이전트의 목적(objective), 단순 정책이 MDP 를 푸는데 적합하지 않은지 설명, 동적 프로그래밍(dynamic programming) - 2개 기본 알고리즘 1. 가치반복(value iteration)알고리즘

2023년 9월 14일
·
0개의 댓글
·
post-thumbnail

GQA: Training Generalized Multi-Query Transformer Models from Multi-Head Checkpoints

GQA(Grouped Query Attention)으로 라마2에서 쓰인 기술로 유명하다. GQA는 MHA(Multi Head Attention)과 MQA(Multi-Query Attention)의 장점을 결합한 기술로, 추론 속도를 빠르게 하면서 성능을 유지할 수 있다

2023년 9월 9일
·
0개의 댓글
·
post-thumbnail

DPO : Direct Preference Optimization: Your Language Model is Secretly a Reward Model

해당논문 이전까지는 human preference를 높이기위한 방법으로 강화학습을 적용했을때 가장 성공적인 결과가 나왔음\+) RM의 경우 본인이 직접 뭔가 작성하는 것보다 남들이 작성해놓은 것을 보고 평가하는 것이 더 일관성있는 어노테이션이 가능 → 이 rlhf는 최

2023년 9월 7일
·
0개의 댓글
·
post-thumbnail

Extrapolating Large Language Models to Non-English by Aligning Languages

업로드중..unbalanced training data distribution으로 인해 En편향성을 갖는다.⇒segmentic alignment across language 통해 해결하려함모델성능은 alpaca와 비교했을 때 평균 42.5%(단, 실험이 번역 실험임)

2023년 9월 1일
·
0개의 댓글
·
post-thumbnail

그로킹 심층 강화학습 공부

DRL : 지능이 요구되는 문제를 해결할 수 있도록 인공지능 개발, 시행착오를 통해 학습 → 순차적이면서 동시에 평가가능, 강력한 비선형 함수 근사(non-linear function approximation) 통해 샘플링해서 얻게된다.강화학습데이터 라벨링 필요없음데이

2023년 8월 7일
·
0개의 댓글
·
post-thumbnail

Pseudo-LiDAR from Visual Depth Estimation: Bridging the Gap in 3D Object Detection for Autonomous Driving

voxel : pixel + volume : 2D(pixel) → 3D(+volume ) 로 표현한 것 camera parameter(calibration) : 2D → 3D로 바꿔주는 방식disparty cost volumne (더 정확한 3D 포인트 클라우드 추정할

2023년 8월 7일
·
1개의 댓글
·
post-thumbnail

LoRA : Low-Rank Adaptation of Large Language Models

LoRA paper review

2023년 7월 25일
·
0개의 댓글
·
post-thumbnail

InstructGPT

InstructGPT

2023년 7월 23일
·
1개의 댓글
·
post-thumbnail

GPT-3 : Language Models are Few-Shot Learners

GPT-3 paper review

2023년 7월 18일
·
1개의 댓글
·
post-thumbnail

ELECTRA : Pre-training Text Encoders as Discriminators Rather Than Generators

Electra 모델은 정확도와 함께 학습의 효율성에 주목한다. 본 논문에서는 학습의 효율 향상을 위해 Replaced Token Detection(RTD)이라는 새로운 pre-training task를 제안했다.ELETRA모델은 빠르고 효과적으로 학습한다. 동일한 조건

2023년 7월 17일
·
1개의 댓글
·
post-thumbnail

ALBERT: A Lite BERT for Self-supervised Learning of Language Representations

Factorizaed Embedding Parameterization, Cross Layer parameter sharing, SOP, Encoder 모델은 hid_size, Layer 계속 늘린다고 성능이 좋아지지 않는다.ALBERT에서 제시Factorized Emb

2023년 7월 17일
·
1개의 댓글
·
post-thumbnail

Anomaly Transformer: Time Series Anomaly Detection with Association Discrepancy

논문에서는 “각 time point를 주변의 모든 time point들간의 관계로 표현할 수 있다.” 라고 주장, 이를 point-wise distribution으로 표현

2023년 7월 3일
·
0개의 댓글
·
post-thumbnail

MT-DNN: Multi-Task Deep Neural Networks for Natural Language Understanding

여러 task 동시에 학습하여 regularization에서 효과적, 특정 task에 대한 overfitting 막아준다. → MT-DNN은 기존 pre-trianing기법에 MTL을 합치는 것이 상호 보완적 효과를 가져올 수 있겠다는 생각에서 출발해 → 성능개선

2023년 6월 26일
·
0개의 댓글
·
post-thumbnail

XLNet- Generalized Autoregressive Pretraining for Language Understanding

XLNet - transformer xl 저자들이 쓴 논문으로, xl 방식을 많이 사용하면서 permutation 방식 적용

2023년 6월 3일
·
0개의 댓글
·
post-thumbnail

GPT1 : Improving Language Understanding by Generative Pre-Training

unlabeled data 사용어떤 형태의 최적화 목적(optimization objective)가 가장 좋은지 불분명해, transfoer에 유용한 text 표현이 뭔지 알기 어렵다 → LM, machine translation, discourse coherence

2023년 5월 26일
·
0개의 댓글
·
post-thumbnail

GPT2 : Language Models are Unsupervised Multitask Learners

agnostic task 가능한 LM 을 만들어보자 지도학습 + 비지도학습을 통한 모델 형성은 특정 테스크 수행으 잘하도록 학습이 된다. 하지만, 이는 작은 데이터셋의 변화에도 쉽게 task를 망칠 수 도 있는 위험이 존재한다. 지금까지 모델들은 좁은 범위

2023년 5월 26일
·
0개의 댓글
·
post-thumbnail

Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context

트랜스포머 구조를 이용한 고정된 길이의 한계점 → 더 긴 의존성을 이용할 수 있는 방법 제시. XLNet과 동일한 저자가 작성

2023년 5월 17일
·
0개의 댓글
·
post-thumbnail

Attention 연산정리

Attention 연산, transformer의 self-attention연산 정리

2023년 5월 11일
·
0개의 댓글
·
post-thumbnail

Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing

NLP분야에서 전통적 지도학습부터 현재 트랜드 및 프롬프트에 관한 survey논문

2023년 4월 5일
·
0개의 댓글
·