論文品讀:Learning both Weights and Connections for Efficient Neural Networks

https://arxiv.org/abs/1506.02626v3 這是一篇關於模型壓縮的15年文章,到目前爲止(18年11月)有450的被引 文章介紹了一種參數剪枝(weights pruning)方法,應該算是最基礎的一種方法了,直接按照參數是否大於某個閾值來判斷哪些參數是重要的,哪些參數是不重要。 在不降低精度的前提下,在VGG-16上取得了13倍的參數壓縮率,從138M個參數到10.8M
相關文章
相關標籤/搜索