模型壓縮之Learning Efficient Convolutional Networks through Network Slimming

1. 摘要 在許多現實應用中,深度神經網絡的部署因爲其高額的計算成本變得很困難。在這篇論文中,咱們提出了一種新穎的CNNs學習方案,它同時知足:html 減少模型大小; 減小運行時的內存佔用; 在不影響精度的同時,下降計算操做數; 利用通道稀疏化這樣一個簡單但卻有效的方法,上面的條件很容易得到。不一樣於許多已經存在的方法,咱們的方法能夠直接應用到現代CNN網絡架構中,在訓練過程引入最小的花銷,並且
相關文章
相關標籤/搜索