深度學習模型壓縮與加速方法

大型神經網絡具有大量的層級與節點,因此考慮如何減少他們所需要的內存與計算量就顯得極爲重要,特別對於在線學習和增量學習等實時應用。此外,近來只能可穿戴設備的流行也爲研究院提供了在資源(內存,cpu,能耗和帶寬等)有限的便攜式設備上部署深度學習應用提供了機會。比如resnet50,他有50層卷積網絡,超過95M的存儲需求和計算每一張圖片所需要的浮點數乘法時間。如果剪枝一些冗餘的權重後,其大概能節約75
相關文章
相關標籤/搜索