谷歌機器學習速成課程筆記 10(Regularization for Simplicity-簡化正則化)

之前已經討論瞭如何讓訓練損失降到最低(也就是獲取正確的樣本),今天,我們來討論且薄優質機器學習效果的第二個關鍵因素——正則化(概括而言,就是不要過於依賴樣本)。 從以下擬合曲線我們可以看出:隨着迭代次數越來越多,訓練損失會越來越少,不出所料,藍色曲線會不斷下降,最終會在某種程度上收斂於底端,但另一方面,紅線卻在上升,而紅線正是我們要關注的(因爲是通過測試集出來的結果嘛)。 我們在訓練集方面做的很好
相關文章
相關標籤/搜索