機器學習系列10:線性迴歸和邏輯迴歸的正則化

線性迴歸的正則化 還記得在線性迴歸中我們有哪兩種方法去求代價函數的最小值嗎?當然是梯度下降和正規方程了。讓我們來複習一下線性迴歸中梯度下降算法,如下: 其中黃色部分就是代價函數對參數 θ 的偏導數。當我們正則化代價函數後,代價函數發生了改變: 相應地,偏導數也會改變,得到正則化後的梯度下降算法: 把其中的 θ_j  提出來,簡化後:   那正規方程正則化後呢?就成了下面這樣:     邏輯迴歸的正
相關文章
相關標籤/搜索