(筆記)通過知識蒸餾和量化進行模型壓縮MODEL COMPRESSION VIA DISTILLATION AND QUANTIZATION

(筆記)Model Compression via Distillation and Quantization (筆記)Model Compression via Distillation and Quantization 原文鏈接: 代碼: 摘要 算法一:加入知識蒸餾loss的量化訓練 算法二:訓練量化集p 效果 原文鏈接: https://arxiv.org/abs/1802.05668 代碼
相關文章
相關標籤/搜索