# kd
총 2개의 포스트

[ICCV2021]Self-Knowledge Distillation with Progressive Refinement of Targets - [2022.07.08]
이 논문은 Knowledge Distillation을 처음으로 Self-supervised 기법을 적용시킨 논문으로 알고 있다. 이를 통해, 다른 다양한 regularization methods(restricting function space, injecting ran
2022년 7월 8일
·
0개의 댓글·
0
KD-TOC
총 유기탄소를 측정하기 위해 시료를 고온의 연소기에 넣어 연소해서, 수중의 유기탄소를 이산화탄소로 산화시켜서 정량. 이 때, 무기성 탄소를 사전에 제거함.부유물질이 많은 시료에 적합한 자동세정 샘플링 장치스크로바(scrubber) :연소관을 빠져나온 뜨거운 기체를 상온
2022년 1월 31일
·
0개의 댓글·
0