ICML2020 | 一行代碼就能實現的測試集上分技巧

星標/置頂小屋,帶你解鎖 最萌最前沿的NLP、搜索與推薦技術 文 | 蘇劍林 編 | 夕小瑤 在訓練模型的時候,我們需要損失函數一直訓練到0嗎?顯然不用。一般來說,我們是用訓練集來訓練模型,但希望的是驗證集的損失越小越好,而正常來說訓練集的損失降低到一定值後,驗證集的損失就會開始上升(即過擬合),因此沒必要把訓練集的損失降低到0。 爲了對抗這種過擬合現象,提高模型的測試集表現(即泛化能力),一種很
相關文章
相關標籤/搜索