《To prune, or not to prune:exploring the efficacy of pruning for model compression》論文筆記

1. 概述 導讀:論文中研究了在資源限制環境下實現較少資源消耗網絡推理的兩種不同模型壓縮方法(結構化剪枝壓縮:small-dense與非結構化剪枝壓縮:large-sparse),並且提出了一種在多種模型與數據上可以直接使用的新逐漸剪枝方法,並且可以集成到訓練過程中去。文中比較了剪裁之後大且稀疏(large-sparse)與小與稠密模型的精度(small-dense),這些模型涵蓋了深度CNN網絡
相關文章
相關標籤/搜索