Pruning Filters For Efficient ConvNets閱讀筆記

問題的提出 現在,神經網絡模型在很多領域都展現了強大的性能(如:物體分類,目標識別,物體分割,自然語言處理等)。隨着模型性能的提高,網絡結構變得越來越深,參數變得越來越多,這就使得保存模型所需要的內存變多,模型進行推理所需要的計算資源與計算時間也變多。但是,在一些嵌入式設備中,內存與計算資源比較匱乏,對系統的實時性要求較高,這就需要對訓練好的網絡模型進行剪枝,降低保存模型所需要的內存,同時減少模型
相關文章
相關標籤/搜索