NLG Model은 빠른속도로 배포되고 있고, 이러한 오픈소스로 풀린 모델들의 생성해 낸는 단어들의 위험성 또한 존재한다.
본 논문에서는 3가지 관점에서 survey를 진행
1. 최근 text detection에 대한 설명
2. Treat Model에 대한 분석
3. EU AI윤리 지침에 따른 survey
언어 생성접근에는
1. Non-Neural Model
2. Non-Transformer Neural method
- RNN, LSTM GAN, Deep RL, IRL(Inverse RL)등의 방식이 있다.
3. Transformer
- 가장 연구가 활발한 분야로 토큰을 생성할 때 조건부 확률로 가장 높은 확률이 높은 토큰을 선택하는 방식을 사용한다.
- unidirectional transformer 모델에서 디코딩 전략으로 top P, top K, Temperature를 주로 많이 사용하고 최근에는 typical sampling 방식을 사용하기도 한다.
용어 : Threat Model - 시스템 보안을 향상시키기 위한 모델.
detection문제는 binary cls 문제이다.
SVM, RF(random forest), NN(neural Network) 를 classification문제해결에 사용할 수 있다.
NN을 이용해서 detection을 접근하는 방식이 많이 사용되고 있다. (특히 transformer에서 나온 features를 포함할 때)
1) Zero-shot Approach
- fine-tuning없이 진행, [CLS] token이 인풋 시퀀스 마지막에 들어가며 해당 토큰이 전체 문장의 feature vector 역할을 한다.
- 작은 모델로 큰 모델detect에 사용할 수 있다.
- Grover : 뉴스 도메인에 특화된 detection 모델로 다른 도메인에서는 엄청 성능이 잘나오진 않음(TF-IDF 베이스라인보다 성능이 안나옴)
- 이후 연구에서 bi-directional모델들이 machine generate detection 에 장점이 있다고 함
2) Fine-tuning Approach
- SOTA는 bi-directional모델들이다.(많이 사용하는 방식이다.) ex) RoBERTa large
- 도메인 적응성도 매우 좋음
- TDA(topological data analysis) 방식을 이용하면 fine-tuning 방식에 비해 크게 성능향상되진 않았지만, GPT계열 unseen data에 매우 정확한 탐지를한다. (RoBERTa에 TDA를 적용시켰을 때는 어떻게 될지 모름 !!! 실험결과가 없는 것 같음.)
- Bi-LSTM, bidiredction(roberta), unidirection, linear classification method모두 사용가능 하지만 bidirectional방법이 가장 좋았다.
3) Applied Detection in Specific Domains
- 특징을 잡아서 detect하는 방법또한 하나의 방법이다. (!!! 전체 토큰 갯수 분석??)
- XGBoost, Random forest classification방법은 해석가능한 분류 방식이기때문에 사용자가 잘 데이터를 파악하면 더 성능을 올릴 수 있다.
4) Human-Aided Method
5) Trends in Evaluation Methodology and Datasets
1) Detection Under Realistic Settings