Paremeter-Efficient-Fine-Tuning
허깅페이스의 PEFT 라이브러리
LoRA, Prefix Tuning, P-Tuning, Prompt Tuning 기법을 쉽게 사용할 수 있도록 하는 라이브러리.
LLM의 대부분의 파라미터를 freezing 시키고 소수의 모델 파라미터만 fine-tuning하는 기법
기존의 패러다임
파인튜닝할때 발생하는 문제점중 하나인 catastrophic forgetting또한 극복
적은 데이터 체제(low-data-regime)에서 파인튜닝할때나 도메인 밖의 데이터(out-of-domain scenario)를 일반화할때 더욱 좋은 성능을 보여주었습니다. (예를 들면 이미지 분류, stable diffusion의 dreambooth)
PEFT를 통해 학습된 적은 양의 가중치는 사전학습된 LLM모델 레이어의 가장 윗부분에 위치하게 됨
model을 8비트 포멧으로 set up 해서 큰 gpu가 필요치 않다록 함
LLM 모델들은 점점 커져감. PaLM의 경우 540B
quantization, distillation 등 모델의 사이즈를 줄이면서도 성능을 유지하는 여러 방법이 제안됨
그 중 HugginFace와 BigScienc 에서 위 조건을 충족하는 Int8 inference 연구 (https://arxiv.org/abs/2208.07339)
자세한 내용은 https://huggingface.co/blog/hf-bitsandbytes-integration 참조
참고
https://4n3mone.tistory.com/7
https://huggingface.co/blog/hf-bitsandbytes-integration