int8量化和tvm實現

量化主要有兩種方案html 直接訓練量化模型如Deepcompression,Binary-Net,Tenary-Net,Dorefa-Net 對訓練好的float模型(以float32爲例)直接進行量化(以int8爲例),這邊博客主要講這個 參考NIVIDIA 量化官方文檔 int8量化原理 將已有的float32型的數據改爲A = scale_A * QA + bias_A,B相似,NVIDI
相關文章
相關標籤/搜索