TIL 25/01/16

쪼경·2025년 1월 16일
0

TIL

목록 보기
2/6

생성형 AI 및 대형 언어 모델(LLM)

파인튜닝(Fine-tuning)

  • 사전 학습된 모델을 특정 작업이나 도메인에 맞게 추가로 훈련.
  • 적은 데이터로도 효과적인 학습 가능.
  • 활용 사례: 산업별 전문 용어 학습, 기업 맞춤형 AI 챗봇 개발.
    프롬프트 엔지니어링

생성형 AI와 GPT

GPT의 주요 특징

  • 대형 언어 모델(LLM)로 인간 언어 이해 및 생성.
    활용: 멀티모델 AI 서비스, 특정 산업/도메인에 맞춘 작업 수행.

GPT의 단점

  • 추론 오류: 정확하지 않은 결과를 제공할 수 있음.
  • 기억 한계: 맥락 유지의 제약.
  • 환각(Hallucination)
    • 허구적 진술 제공 (미세조정 부족 시).
    • 정보 왜곡과 문맥 부조화 발생 가능.
  • 환각 문제 해결 방법
    • 파인튜닝(Fine-tuning): 추가 학습으로 모델 개선.
    • 프롬프트 엔지니어링: 질문과 지시를 명확히 구성.
    • 크로스체킹: 생성된 정보를 검증.

AI에게 원하는 결과를 도출하기 위한 질문 및 요청의 구성 방법.

  • Zero-shot Prompting: 작업 지시만 포함.
  • Few-shot Prompting: 작업 예시를 2~3개 제공하여 학습 방향 설정.
  • Chain of Thought(CoT): 단계적 사고 과정을 출력해 더 깊은 답변 유도.
  • Tree of Thoughts(ToT): 다양한 가능성을 평가해 최선의 답변 도출.

프롬프트 엔지니어링

: AI에게 원하는 결과를 도출하기 위한 질문 및 요청의 구성 방법.

  • Zero-shot Prompting: 작업 지시만 포함.
  • One-shot Prompting : 작업 예시를 1개만 제공하여 결과 생성 방식.
  • Few-shot Prompting: 작업 예시를 2~3개 제공하여 학습 방향 설정.
  • Chain of Thought(CoT): 단계적 사고을 출력해 더 깊은 답변 유도.
  • Zero-shot CoT : 단계적 사고를 포함하게 하지만, 예시 제공은 안함.
  • Tree of Thoughts(ToT): 다양한 가능성을 평가해 최선의 답변 도출.
  • ReAct : 생성 후 피드백을 통해 점진적 개선. -> 스스로를 평가하게 하기

RTF 프레임워크

역할, 작업, 형식을 명확히 정의하여 AI와의 상호작용 최적화.

  • 너는 20년차 개발자야, 나는 00형태의 코드가 필요해~
  • 너는 데이터 전문가야 00데이터가 필요한데, 00형태로 보여줘
  • 역할 기반 프롬프팅
    • 특정 역할에 관하여 더 디테일한 대답을 얻을 수 있게
    • 명확한 관점에서의 답을 얻을 수 있게
    • 배경지식이 많으면 많을수록 데이터가 좋아질수도 있다
    • AI 의 인격(페르소나)가 디테일해지기 때문에 데이터의 품질이 높을수있다

✅ 오늘의 Check Point

  • AI를 활용하기 위해선 질문을 명확히 정의하고, 결과를 검증하는 습관이 중요.
  • 질문의 구체성과 맥락 설정의 중요성 인지.
  • RTF 프레임워크 잘 활용해보기


😵‍💫 주절주절
OT이 아닌 첫수업날.. 긴장반 설렘반으로 수업시작했는데 왜이렇게 모르는거 투성인지.. 모르는건 많고, 프로그램은 말썽이고.. 어휴.. 내일은 빡 집중!

profile
[개발자] Lv.1

0개의 댓글