機器學習複習4-線性迴歸

線性迴歸是什麼 損失函數 正則化 1. L2正則化 嶺迴歸 假設模型的參數爲 w 1 w_1 w1​和 w 2 w_2 w2​,之前未加入正則化項的代價函數是 J 0 J_0 J0​,我們的目標便是調整 w 1 w_1 w1​和 w 2 w_2 w2​來使得 J 0 J_0 J0​達到最小; 現在加入了L2嶺迴歸正則化項即 w w w平方和× 入 入 入,而 w w w平方和其實本質上就是上圖的紅
相關文章
相關標籤/搜索