深度學習模型壓縮(量化、剪枝、輕量化結構、batch-normalization融合)

「目前在深度學習領域分類兩個派別,一派爲學院派,研究強大、複雜的模型網絡和實驗方法,爲了追求更高的性能;另外一派爲工程派,旨在將算法更穩定、高效的落地在硬件平臺上,效率是其追求的目標。複雜的模型當然具備更好的性能,可是高額的存儲空間、計算資源消耗是使其難以有效的應用在各硬件平臺上的重要緣由。因此,卷積神經網絡日益增加的深度和尺寸爲深度學習在移動端的部署帶來了巨大的挑戰,深度學習模型壓縮與加速成爲了
相關文章
相關標籤/搜索