機器學習之 線性迴歸( L1正則化(Lasso迴歸)+ L2正則化(Ridge迴歸))(五)

主要參考:https://www.cnblogs.com/pinard/p/6004041.html 想看具體的看參考鏈接,這裏主要是重點公式記載。 線性迴歸是最常見的,之前再梯度下降和最小二乘法裏面也都是以線性迴歸爲例的。 模型: 矩陣形式 一般線性迴歸我們用均方誤差作爲損失函數。 損失函數的代數法表示如下: 損失函數的矩陣形式: 對於線性迴歸的損失函數,我們常用的有兩種方法來求損失函數最小化時
相關文章
相關標籤/搜索