知識蒸餾,teacher—student模型的思考

知識蒸餾,teacher—student模型的思考 這個方向的學術源頭是Rich Caruana2014年的作品《Do Deep Nets Really Need to be Deep?》,後來經過Hinton的《Distilling the Knowledge in a Neural Network》發揚光大。實用價值:可以對大型神經網絡進行瘦身以便部署到用戶端;理論價值:引發對深度網絡的思考:
相關文章
相關標籤/搜索