post-thumbnail

Multiscale Positive-Unlabeled Detection of AI-Generated Texts

짧은 문장들에 대해서는 인공지능이 분류하기 어려운 문제가 존재 -> 이를 해결하기 위해 MPU(Multiscale Positive-Unlabeles) 를 사용해서

2023년 11월 6일
·
0개의 댓글
·

DetectLLM: Leveraging Log Rank Information for Zero-Shot Detection of Machine-Generated Text

용어 negative curvature of the log likelihood of the text : 기계가 생성한 probability를 측정한다. curvature of the log likelihood는 이 probability의 곡률(shape)을 의미한다.

2023년 11월 2일
·
0개의 댓글
·

OUTFOX: LLM-generated Essay Detection through In-context Learning with Adversarially Generated Examples

Abstract ICL(in-context learning)을 이용해 detector와 attacker 둘 다 탐지하고 공격하기 어렵게 한 적대적 학습 형식이다. detector와 attacker gpt 3.5 tubo 사용,,, Introduction OUTFOX

2023년 11월 2일
·
0개의 댓글
·

A Survey on LLM-generated Text Detection: Necessity, Methods, and Future Directions

git : https://github.com/nlp2ct/llm-generated-text-detection watermark in llm : 사람 눈으로 확인하기 어려운 숨겨진 패턴 등을 알고리즘적으로 식별하는 방법 LLM에서 워터마크는 소유권은 물론 콘텐츠의 진위성

2023년 11월 2일
·
0개의 댓글
·

Machine-Generated Text: A Comprehensive Survey of Threat Models and Detection Methods

Introduction NLG Model은 빠른속도로 배포되고 있고, 이러한 오픈소스로 풀린 모델들의 생성해 낸는 단어들의 위험성 또한 존재한다. 본 논문에서는 3가지 관점에서 survey를 진행 최근 text detection에 대한 설명 Treat Model에 대한

2023년 11월 2일
·
0개의 댓글
·
post-thumbnail

NEFTUNE: NOISY EMBEDDINGS IMPROVE INSTRUCTION FINETUNING

embedding vectors에 노이즈를 더해 학습을 시킬 때 일반 finetuning보다 큰 성능향상을 가져올 수 있다. 또한 RLHF학습을 통해 LLaMA-2-chat 모델에서도 효과적이다. neftune algorithm (매우 간단함)embedding vect

2023년 11월 2일
·
0개의 댓글
·
post-thumbnail

GQA: Training Generalized Multi-Query Transformer Models from Multi-Head Checkpoints

GQA(Grouped Query Attention)으로 라마2에서 쓰인 기술로 유명하다. GQA는 MHA(Multi Head Attention)과 MQA(Multi-Query Attention)의 장점을 결합한 기술로, 추론 속도를 빠르게 하면서 성능을 유지할 수 있다

2023년 9월 9일
·
0개의 댓글
·
post-thumbnail

DPO : Direct Preference Optimization: Your Language Model is Secretly a Reward Model

해당논문 이전까지는 human preference를 높이기위한 방법으로 강화학습을 적용했을때 가장 성공적인 결과가 나왔음\+) RM의 경우 본인이 직접 뭔가 작성하는 것보다 남들이 작성해놓은 것을 보고 평가하는 것이 더 일관성있는 어노테이션이 가능 → 이 rlhf는 최

2023년 9월 7일
·
0개의 댓글
·
post-thumbnail

Extrapolating Large Language Models to Non-English by Aligning Languages

업로드중..unbalanced training data distribution으로 인해 En편향성을 갖는다.⇒segmentic alignment across language 통해 해결하려함모델성능은 alpaca와 비교했을 때 평균 42.5%(단, 실험이 번역 실험임)

2023년 9월 1일
·
0개의 댓글
·
post-thumbnail

LoRA : Low-Rank Adaptation of Large Language Models

LoRA paper review

2023년 7월 25일
·
0개의 댓글
·
post-thumbnail

InstructGPT

InstructGPT

2023년 7월 23일
·
1개의 댓글
·
post-thumbnail

GPT-3 : Language Models are Few-Shot Learners

GPT-3 paper review

2023년 7월 18일
·
1개의 댓글
·
post-thumbnail

ELECTRA : Pre-training Text Encoders as Discriminators Rather Than Generators

Electra 모델은 정확도와 함께 학습의 효율성에 주목한다. 본 논문에서는 학습의 효율 향상을 위해 Replaced Token Detection(RTD)이라는 새로운 pre-training task를 제안했다.ELETRA모델은 빠르고 효과적으로 학습한다. 동일한 조건

2023년 7월 17일
·
1개의 댓글
·
post-thumbnail

ALBERT: A Lite BERT for Self-supervised Learning of Language Representations

Factorizaed Embedding Parameterization, Cross Layer parameter sharing, SOP, Encoder 모델은 hid_size, Layer 계속 늘린다고 성능이 좋아지지 않는다.ALBERT에서 제시Factorized Emb

2023년 7월 17일
·
1개의 댓글
·
post-thumbnail

XLNet- Generalized Autoregressive Pretraining for Language Understanding

XLNet - transformer xl 저자들이 쓴 논문으로, xl 방식을 많이 사용하면서 permutation 방식 적용

2023년 6월 3일
·
0개의 댓글
·
post-thumbnail

GPT1 : Improving Language Understanding by Generative Pre-Training

unlabeled data 사용어떤 형태의 최적화 목적(optimization objective)가 가장 좋은지 불분명해, transfoer에 유용한 text 표현이 뭔지 알기 어렵다 → LM, machine translation, discourse coherence

2023년 5월 26일
·
0개의 댓글
·
post-thumbnail

GPT2 : Language Models are Unsupervised Multitask Learners

agnostic task 가능한 LM 을 만들어보자 지도학습 + 비지도학습을 통한 모델 형성은 특정 테스크 수행으 잘하도록 학습이 된다. 하지만, 이는 작은 데이터셋의 변화에도 쉽게 task를 망칠 수 도 있는 위험이 존재한다. 지금까지 모델들은 좁은 범위

2023년 5월 26일
·
0개의 댓글
·
post-thumbnail

End-to-end Neural Coreference Resolution

coreference : 임의의 개체(entity)를 표현하는 다양한 명사구(멘션)들을 찾아 연결해주는 자연어처리 문제.

2023년 3월 28일
·
0개의 댓글
·