深度神經網絡的壓縮和正則化

深度神經網絡已經成爲解決計算機視覺、語音識別和自然語言處理等機器學習任務的最先進的技術。儘管如此,深度學習算法是計算密集型和存儲密集型的,這使得它難以被部署到只有有限硬件資源的嵌入式系統上。 爲了解決這個限制,可以使用深度壓縮來顯著地減少神經網絡所需要的計算和存儲需求。例如對於具有全連接層的卷積神經網絡(如Alexnet和VGGnet),深度壓縮可以將模型大小減少35到49倍。即使對於全卷積神經網
相關文章
相關標籤/搜索