深度學習模型壓縮與優化加速(Model Compression and Acceleration Overview)

1. 簡介 深度學習(Deep Learning)因其計算複雜度或參數冗餘,在一些場景和設備上限制了相應的模型部署,須要藉助模型壓縮、優化加速、異構計算等方法突破瓶頸。node 模型壓縮算法可以有效下降參數冗餘,從而減小存儲佔用、通訊帶寬和計算複雜度,有助於深度學習的應用部署,具體可劃分爲以下幾種方法(後續重點介紹剪枝與量化): 線性或非線性量化:1/2bits, int8 和 fp16等; 結構
相關文章
相關標籤/搜索