생성형 AI 및 대형 언어 모델(LLM)
파인튜닝(Fine-tuning)
- 사전 학습된 모델을 특정 작업이나 도메인에 맞게 추가로 훈련.
- 적은 데이터로도 효과적인 학습 가능.
- 활용 사례: 산업별 전문 용어 학습, 기업 맞춤형 AI 챗봇 개발.
프롬프트 엔지니어링
생성형 AI와 GPT
GPT의 주요 특징
- 대형 언어 모델(LLM)로 인간 언어 이해 및 생성.
활용: 멀티모델 AI 서비스, 특정 산업/도메인에 맞춘 작업 수행.
GPT의 단점
- 추론 오류: 정확하지 않은 결과를 제공할 수 있음.
- 기억 한계: 맥락 유지의 제약.
- 환각(Hallucination)
- 허구적 진술 제공 (미세조정 부족 시).
- 정보 왜곡과 문맥 부조화 발생 가능.
- 환각 문제 해결 방법
- 파인튜닝(Fine-tuning): 추가 학습으로 모델 개선.
- 프롬프트 엔지니어링: 질문과 지시를 명확히 구성.
- 크로스체킹: 생성된 정보를 검증.
AI에게 원하는 결과를 도출하기 위한 질문 및 요청의 구성 방법.
- Zero-shot Prompting: 작업 지시만 포함.
- Few-shot Prompting: 작업 예시를 2~3개 제공하여 학습 방향 설정.
- Chain of Thought(CoT): 단계적 사고 과정을 출력해 더 깊은 답변 유도.
- Tree of Thoughts(ToT): 다양한 가능성을 평가해 최선의 답변 도출.
프롬프트 엔지니어링
: AI에게 원하는 결과를 도출하기 위한 질문 및 요청의 구성 방법.
- Zero-shot Prompting: 작업 지시만 포함.
- One-shot Prompting : 작업 예시를 1개만 제공하여 결과 생성 방식.
- Few-shot Prompting: 작업 예시를 2~3개 제공하여 학습 방향 설정.
- Chain of Thought(CoT): 단계적 사고을 출력해 더 깊은 답변 유도.
- Zero-shot CoT : 단계적 사고를 포함하게 하지만, 예시 제공은 안함.
- Tree of Thoughts(ToT): 다양한 가능성을 평가해 최선의 답변 도출.
- ReAct : 생성 후 피드백을 통해 점진적 개선. -> 스스로를 평가하게 하기
RTF 프레임워크
역할, 작업, 형식을 명확히 정의하여 AI와의 상호작용 최적화.
- 너는 20년차 개발자야, 나는 00형태의 코드가 필요해~
- 너는 데이터 전문가야 00데이터가 필요한데, 00형태로 보여줘
- 역할 기반 프롬프팅
- 특정 역할에 관하여 더 디테일한 대답을 얻을 수 있게
- 명확한 관점에서의 답을 얻을 수 있게
- 배경지식이 많으면 많을수록 데이터가 좋아질수도 있다
- AI 의 인격(페르소나)가 디테일해지기 때문에 데이터의 품질이 높을수있다
✅ 오늘의 Check Point
- AI를 활용하기 위해선 질문을 명확히 정의하고, 결과를 검증하는 습관이 중요.
- 질문의 구체성과 맥락 설정의 중요성 인지.
- RTF 프레임워크 잘 활용해보기
😵💫 주절주절
OT이 아닌 첫수업날.. 긴장반 설렘반으로 수업시작했는데 왜이렇게 모르는거 투성인지.. 모르는건 많고, 프로그램은 말썽이고.. 어휴.. 내일은 빡 집중!