KL-divergence

leehyuna·2024년 8월 19일
0

딥러닝

목록 보기
3/3

kullback-Leibler divergence(발산) (KLD)

  • 두 확률분포의 차이를 계산하는 데에 사용하는 함수
  • 어떤 이상적인 분포에 대해, 그 분포를 근사하는 다른 분포를 사용해 샘플링을 한다면 발생할 수 있는 정보 엔트로피 차이를 계산
  • 상대 엔트로피(relative entropy), 정보 획득량(information gain), 인포메이션 다이버전스(information divergence)라고도 한다.

참고 링크
https://hyunw.kim/blog/2017/10/27/KL_divergence.html

profile

0개의 댓글