模型壓縮之 BinaryNet

1. 動機 深度學習在圖像、語音、文本等領域都取得了巨大的成功,推進了一系列智能產品的落地。但深度模型存在着參數衆多,訓練和 inference 計算量大的不足。目前,基於深度學習的產品大多依靠服務器端運算能力的驅動,很是依賴良好的網絡環境。html 不少時候,出於響應時間、服務穩定性和隱私方面的考慮,咱們更但願將模型部署在本地(如智能手機上)。爲此,咱們須要解決模型壓縮的問題——將模型大小、內存
相關文章
相關標籤/搜索