深度學習模型壓縮方法綜述(三)

深度學習模型壓縮方法綜述(一) 深度學習模型壓縮方法綜述(二) 深度學習模型壓縮方法綜述(三)git 前言 在前兩章,咱們介紹了一些在已有的深度學習模型的基礎上,直接對其進行壓縮的方法,包括核的稀疏化,和模型的裁剪兩個方面的內容,其中核的稀疏化可能須要一些稀疏計算庫的支持,其加速的效果可能受到帶寬、稀疏度等不少因素的制約;而模型的裁剪方法則比較簡單明瞭,直接在原有的模型上剔除掉不重要的filter
相關文章
相關標籤/搜索