int8量化

  感覺深度學習在移動端的全面開花就在這兩年了,其實感覺已經開始開花了。 先說說量化是怎麼一回事,目前我們在caffe, tensorflow等框架上訓練模型(前向和反向)都是使用float 32的,與int 8相比,所需儲存空間更大,但是精度更好。 量化目前來講,有兩種方式,一種是通過訓練量化finetune原來的模型,另一種是直接對模型和計算進行量化。這篇文章先來講不使用finetune,直接
相關文章
相關標籤/搜索