深度學習之蒸餾法訓練網絡

《Distilling the Knowledge in a Neural Network》 Geoffrey Hintion 摘要 在ML領域中有一種最爲簡單的提升模型效果的方式,在同一訓練集上訓練多個不同的模型,在預測階段採用綜合均值作爲預測值。但是,運用這樣的組合模型需要太多的計算資源,特別是當單個模型都非常浮渣的時候。已經有相關的研究表明,複雜模型或者組合模型的中「知識」通過合適的方式是可
相關文章
相關標籤/搜索