# Dataset Distillation
총 2개의 포스트

Dataset Distillation
Dataset Distillation_paper [Abstract] Knowledge distillation과는 다르게 모델을 고정시키고 large training dataset의 knowledge를 작은 dataset으로 distill하는 새로운 데이터셋 압축 방법을
2022년 1월 11일
·
0개의 댓글·
0Dataset Distillation_paper [Abstract] Knowledge distillation과는 다르게 모델을 고정시키고 large training dataset의 knowledge를 작은 dataset으로 distill하는 새로운 데이터셋 압축 방법을