int8量化和tvm實現

量化主要有兩種方案 直接訓練量化模型如Deepcompression,Binary-Net,Tenary-Net,Dorefa-Net 對訓練好的float模型(以float32爲例)直接進行量化(以int8爲例),這邊博客主要講這個 int8量化原理 將已有的float32型的數據改成A = scale_A * QA + bias_A,B類似,NVIDIA實驗證明可以去掉bias,即A = sc
相關文章
相關標籤/搜索