profile
급할수록 돌아가라
post-thumbnail

[ICCV2021]Self-Knowledge Distillation with Progressive Refinement of Targets - [2022.07.08]

이 논문은 Knowledge Distillation을 처음으로 Self-supervised 기법을 적용시킨 논문으로 알고 있다. 이를 통해, 다른 다양한 regularization methods(restricting function space, injecting ran

2022년 7월 8일
·
0개의 댓글
·