資源分享 | 知識蒸餾總結、應用與擴展(2015-2019)

點擊我愛計算機視覺標星,更快獲取CVML新技術 知識蒸餾示意圖 知識蒸餾因爲2015年Hinton的著名論文 Distilling the knowledge in a neural network 而被更多人所認知,是模型參數壓縮、計算加速的重要方法,尤其在將深度神經網絡模型部署到移動端、IOT等邊緣設備上時。 在華東師範大學讀書的Yuang Liu 同學最近對知識蒸餾方向近幾年(2015-20
相關文章
相關標籤/搜索