模型壓縮之Learning Efficient Convolutional Networks through Network Slimming

1. 摘要 在許多現實應用中,深度神經網絡的部署由於其高額的計算成本變得很困難。在這篇論文中,我們提出了一種新穎的CNNs學習方案,它同時滿足: 減小模型大小; 減少運行時的內存佔用; 在不影響精度的同時,降低計算操作數; 利用通道稀疏化這樣一個簡單但卻有效的方法,上面的條件很容易獲得。不同於許多已經存在的方法,我們的方法可以直接應用到現代CNN網絡架構中,在訓練過程引入最小的花銷,而且不需要其他
相關文章
相關標籤/搜索