神經網絡壓縮:Mimic(二)Distilling the Knowledge in a Neural Network

轉載請註明出處: 西土城的搬磚日常 原文:arxiv 出版源:《Computer Science》, 2015, 14(7):38-39 問題摘要: 在幾乎所有的機器學習算法當中,我們都可以通過對同一數據集進行多次學習得到數個不同的模型,並將各模型的預測結果作以加權作爲最終輸出這一簡單的方式來提高任務性能。然而顯然這一方法在計算代價上經常過於昂貴。而在這篇文獻當中作者提出了一種所謂的「蒸餾」法,將
相關文章
相關標籤/搜索