# RLHF

3개의 포스트
post-thumbnail

RLHF란?

RLHF : Reinforcement Learning from Human Feedback ㅁㄴㅇㄹ RLHF Concept ChatGPT는 이전 포스트에서 소개한 Instruction tuning 기법을 적용한 LM 모델에 Supervised Instruction tuning과 RLHF를 적용하여 만들어진 모델입니다. 해당 챕터에서는 수식적인 부분 보다는 개념위주로 진행하려고 합니다. 먼저 해당 기술이 나오게 된 계기는 조금 더 인간의 취향에 맞는 답변을 얻기 위해서입니다. 예를 들어 요약 Task를 위한 LM을 만든다고 가정을 하겠습니다. 임의의 sample을 inference한 결과에 대한 human reward(사람의 평가)을 얻을 수 있을 때 결과에 대한 expected reward를 최

2023년 5월 25일
·
0개의 댓글
·
post-thumbnail

StableVicuna

Background 최근, chatbot의 개발 및 릴리즈에 상당한 추진이 있었다. Chracter.ai의 chatbot에서 ChatGPT, Bard까지, 채팅을 이용해 봇을 튜닝하는 유저들의 경험은 매우 뜨거운 주제가 되었다. 이러한 뜨거운 관심에 오픈소스의 출현과 오픈소스 대체제가 등장함으로써 기름을 붓는 상황이 되었다. The Current Environment of Open Source Chatbots 위의 chat모델의 성공에는 두 가지의 비결이 존재한다: 1) instruction finetuning 2) Reinforcement Learning through human feedback (RLHF). 그 동안 앞서 제시한 모델들을 학습시키기 쉽게 만드는 수 많은 오픈 소스 프레임워크(trlX, trl, DeepSpeed Chat and ColossalAI)를 제작하는 노력이 있었으나 두 패러다임을 적용시킬 수 있는 open access,

2023년 5월 1일
·
0개의 댓글
·
post-thumbnail

[논문리뷰] Learning to summarize from human feedback

🖊️Abstract 🖊️ > As language models become more powerful, training and evaluation are increasingly bottlenecked by the data and metrics used for a particular task. For example, summarization models are often trained to predict human reference summaries and evaluated using ROUGE, but both of these metrics are rough proxies for what we really care about—summary quality. In this work, we show that it is possible to significantly improve summary quality by training a model to optimize for h

2023년 5월 1일
·
0개의 댓글
·