# QAT

2개의 포스트

[PaperReview] A Survey of Quantization Methods for Efficient Neural Network Inference

폭 넓은 문제의 분야에서 Neural Network 의 정확도는 필요 이상의 수 많은 파라미터들로 크게 개선되었다. 문제를 해결하는데 중점을 두어 모델의 복잡도와 계산 복잡도까지 고려를 해서 발달되지는 않은 것으로 해석 할 수 있을 것 같다.NN이 개선되며 발달한

2022년 11월 25일
·
0개의 댓글
·

[PaperReview] Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference

모바일 장치의 인기가 많아지고 있지만, 딥 러닝 기반 모델은 압도적인 계산 비용이 요구되므로 장치 내에서 효율적이고 정확한 추론 방식이 요구된다.AlexNet의 등장으로 classification, detection task에서 CNN의 성능이 향상 되었지만, 모델 복

2022년 11월 25일
·
0개의 댓글
·