神經網絡壓縮綜述

1.研究背景 對模型預測精度無明顯影響 壓縮模型的參數數量、深度來下降模型空間複雜度 全鏈接層參數多,模型大小由全鏈接層主導 不顯著提升訓練時間複雜度,下降預測時間複雜度(計算量) 卷積層計算量大,計算代價由卷積操做主導 2.方法 2.1.更精細模型的設計 Aggregated Residual Transformations for Deep Neural Networks DenseNet H
相關文章
相關標籤/搜索