q(x_t-1|x_t)
의 평균을 학습하기 위한 ϵ_t
만 학습했었다.P_theta(x_t-1|x_t)
의 분산을 학습시키기~β_t / β_t
가 어떻게 변화하는지 그린 그래프P_theta(x_t-1|x_t)
normal distribution의 variance로써, DDPM에서 증명했습니다.P_theta(x_t-1|x_t)
의 평균을 학습시키는 과정이었습니다.분산
까지 학습시켜서 esimation하면 VLB loss, 즉 log-likelihood가 개선될까? 라는 생각을 가질 수 있습니다.v
를 출력하도록 학습합니다. v
는 아래와 같습니다.v
를 추가했으니, 이를 학습되게 하기 위해서 loss function도 수정해봅시다.P_theta(x_t-1|x_t)
의 분산까지 학습시키므로써, log-likelihood가 개선되는지 확인해보자!알파 헷
은 아래의 규칙을 따르는게 좋다고 합니다. (아래 그래프 세로축 처럼)후보군1
이 더 좋은 선택지라고 주장한다!