ICCV 2019推薦Pytorch實現一種無需原始訓練數據的模型壓縮算法

背景 大多數深層神經網絡(CNN)往往消耗巨大的計算資源和存儲空間爲了將模型部署到性能受限的設備(如移動設備),通常需要加速網絡的壓縮現有的一些加速壓縮算法,如知識蒸餾等,可以通過訓練數據獲得有效的結果。然而,在實際應用中,由於隱私、傳輸等原因,訓練數據集通常不可用因此,作者提出了一種不需要原始訓練數據的模型壓縮方法。 原理 點擊添加圖片描述(最多60個字) 上圖是本文提出的總體結構通過一個給定的
相關文章
相關標籤/搜索