論文筆記:Distilling the Knowledge

原文:Distilling the Knowledge in a Neural Network Distilling the Knowledge 1、四個問題 要解決什麼問題? 神經網絡壓縮。 我們都知道,要提高模型的性能,我們可以使用ensemble的方法,即訓練多個不同的模型,最後將他們的結果進行融合。像這樣使用ensemble,是最簡單的能提高模型性能的方法,像kaggle之類的比賽中大家也
相關文章
相關標籤/搜索