Incremental Network Quantization: Towards Lossless CNNs with Low-precision Weights論文

英特爾中國研究院 現有的量化壓縮方法有兩點不足:1.量化過程中的精度損失仍然不可忽視;2.大多數量化壓縮方法只適用於處理特定的模型結構和特定類型的層,一定程度限制了泛化能力和量化壓縮的性能(這裏指的是很多方法對fc層的壓縮比較有效,最終得到的比較大的壓縮率很大一部分貢獻是fc);另外還有重訓練時間長等問題; INQ (Incremental network quantization)。該方法可以將
相關文章
相關標籤/搜索