深度網絡推理加速(Learning both Weights and Connections for Efficient Neural Networks)

摘要 針對卷積神經網絡的結構在訓練之前就已經被固定下來,因而訓練過程無法優化網絡結構,本文提出了一種三步法在保留網絡能力的前提下進行剪枝。首先,讓網絡在訓練中學習到哪些連接是重要的;其次,對不重要的連接進行剪枝;最後,在剪枝後的網路歐上進行微調。用該方法對ImageNet數據的AlexNet和VGG-16網絡進行優化,分別將模型減小了十倍左右,而沒有損失精度。 下圖是在45nm工藝的CMOS芯片上
相關文章
相關標籤/搜索