模型壓縮之post-training quantization

一,post-training quantization的工作原理 在底層,通過將參數(即神經網絡權重)的精度從訓練時的32位浮點表示降低到更小、更高效的8位整數表示來運行優化(也稱爲量化)。 post-training量化指南:https://www.tensorflow.org/performance/post_training_quantization這些優化將確保將最終模型中精度降低的操作
相關文章
相關標籤/搜索