# finetuning

[LLaMA 관련 논문 리뷰] 02-Scaling Instruction-Finetuned Language Models (Instruction Tuning)
이전 글에 이어서 Instruction Tuning 관련 논문을 리뷰하겠습니다. 오늘 리뷰할 논문은 Instruction Tuning에 CoT prompting을 추가하여 모델의 resoning ability를 증진할 수 있는지 실험한 논문입니다. Scaling In

[Paper Review] SetFit : Efficient Few-Shot Learning Without Prompts
ChatGPT, BARD, LLaMa 등과 같은 LLM은 다재다능합니다. In-context learning(ICL)의 성능을 증명한 GPT 모델의 등장으로 인해, 데이터 라벨링이 필요한 fine-tuning 방법론은 시간과 비용 측면에서 비효율적인 방법론이 되어버렸습
[PaperReview] A Survey of Quantization Methods for Efficient Neural Network Inference
폭 넓은 문제의 분야에서 Neural Network 의 정확도는 필요 이상의 수 많은 파라미터들로 크게 개선되었다. 문제를 해결하는데 중점을 두어 모델의 복잡도와 계산 복잡도까지 고려를 해서 발달되지는 않은 것으로 해석 할 수 있을 것 같다.NN이 개선되며 발달한
[PaperReview] Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference
모바일 장치의 인기가 많아지고 있지만, 딥 러닝 기반 모델은 압도적인 계산 비용이 요구되므로 장치 내에서 효율적이고 정확한 추론 방식이 요구된다.AlexNet의 등장으로 classification, detection task에서 CNN의 성능이 향상 되었지만, 모델 복
[PaperReview] Training with Quantization Noise for Extreme Model Compression
매 iteration forward 때 마다 서로 다른 가중치의 일부분에 양자화 하는 방법이다. 이렇게 할 경우 편향성 없는 gradient를 다른 가중치에 흐르게 할 수 있다.실 생활에서 쓰이는 성능 좋은 대부분의 NN architecture는 수 많은 파라미터를 가

[Basic NLP] sentence-transformers 라이브러리를 활용한 SBERT 학습 방법
Intro 이전 포스트에서 소개한 SentenceBERT를 어떻게 학습하는지 논문 및 sentence-transformers 공식 깃헙을 기준으로 몇 가지 방법을 알아보고 어떤 방법이 가장 좋은 성능을 내었느지 소개하고자 한다. 1. SBERT 학습 데이터 SBERT
HiddenCut- Simple Data Augmentation for Natural Language Understanding with Better Generalization
본 포스트는 pre-trained language model을 task에 fine-tuning 수행 시, drop out을 기반으로 data augmentation을 하는 방법인 HiddenCut을 다룹니다.NLP에서 대용량의 데이터를 이용하여 large-scale의

[Paper Review] Sentence-BERT: Sentence Embedding using Siamese BERT-Networks
Intro 문장 간(혹은 문서 간) 유사도 분석에서 좋은 성능을 내고 있는 Sentence-BERT에 대해 알아보려고 한다. 논문 원제는 Sentence-BERT: Sentence Embedding using Siamese BERT-Networks이며, 최근 성능이