CNN模型 INT8 量化實現方式(一)

當前CNN模型基本都是 float32,將其轉換爲 INT8 能夠下降模型大小,提高速度,精度下降的也不太多。那麼在實際中如何實現這個量化了?在網上找到了三種實踐方法, 基於騰訊的NCNN, Tensorflow ,Nvidia 的 TensorRT,這裏先介紹其中的一種。linux 這裏主要涉及兩個問題:1)就是 int8量化;2)就是 int8 模型的使用android 基於Caffe-Int
相關文章
相關標籤/搜索