Pruning Convolutional Neural Networks For Resource Efficient Inference

論文地址:https://arxiv.org/abs/1611.06440v2 英偉達出品的模型剪枝論文,NVIDIA Transfer Learning Toolkit就是基於這篇論文進行實現的? 0 摘要 我們提出了一種新的對神經網絡中卷積核進行剪枝的算法以實現高效推理。我們將基於貪婪標準的修剪與通過反向傳播的微調交錯 - 實現了一種高效的的過程,在修剪後的網絡中保持了良好的泛化能力。我們提出
相關文章
相關標籤/搜索