知識蒸餾Knowledge Distillation

知識蒸餾是模型壓縮的一個重要方法,本文簡要介紹了什麼是知識蒸餾。git 知識蒸餾Knowledge Distillation 1.什麼是知識蒸餾 我淺談一些個人見解,詳細內容能夠參考這篇文章 [https://zhuanlan.zhihu.com/p/90049906]web 簡單來講,就是咱們通常訓練模型時,可能爲了有一個好的效果,就會加大網絡深度,或者用一些複雜的網絡,這樣參數量就會好大…那麼
相關文章
相關標籤/搜索