深度學習剪枝

通常來講,神經網絡層數越深、參數越多,所得出的結果就越精細。但與此同時,問題也來了:越精細,意味着所消耗的計算資源也就越多。這個問題怎麼破?這就要靠剪枝技術了。言下之意,把那些對輸出結果貢獻不大的參數剪掉。這項技術可追溯至深度學習大神Yan LeCun在1990年的研究。html 本文除了對各種剪枝技術進行詳解,還會以案例的形式來進行實驗實操:修剪一個基於VGG-16模型的貓狗分類器。這個案例結果
相關文章
相關標籤/搜索