Knowledge Distillation

從模型壓縮的角度調查了有關蒸餾相關的進展。與視覺應用型論文不同模型壓縮的論文開源的比例並不多,相比較之下蒸餾相關工作算是開源比例大的。下面主要從是否開源或實現兩方面按照發表時間列出相關論文和實現。並在有源碼實現了論文中做了進一步相關方法的調查。 ##一、知識蒸餾相關論文和進展survey:(開源或有第三方實現) 2014-NIPS-Do Deep Nets Really Need to be De
相關文章
相關標籤/搜索