深度學習模型壓縮 | 方法綜述(1)

前言 目前在深度學習領域分類兩個派別,一派爲學院派,研究強大、複雜的模型網絡和實驗方法,爲了追求更高的性能;另一派爲工程派,旨在將算法更穩定、高效的落地在硬件平臺上,效率是其追求的目標。複雜的模型固然具有更好的性能,但是高額的存儲空間、計算資源消耗是使其難以有效的應用在各硬件平臺上的重要原因。 最近正好在關注有關深度學習模型壓縮的方法,發現目前已有越來越多關於模型壓縮方法的研究,從理論研究到平臺實
相關文章
相關標籤/搜索