還記得在線性迴歸中咱們有哪兩種方法去求代價函數的最小值嗎?固然是梯度降低和正規方程了。讓咱們來複習一下線性迴歸中梯度降低算法,以下:算法
其中黃色部分就是代價函數對參數 θ 的偏導數。當咱們正則化代價函數後,代價函數發生了改變:微信
相應地,偏導數也會改變,獲得正則化後的梯度降低算法:機器學習
把其中的 θ_j 提出來,簡化後:函數
那正規方程正則化後呢?就成了下面這樣:學習
邏輯迴歸的代價函數爲:spa
與線性迴歸的正則化相似,邏輯迴歸的正則化就是在邏輯迴歸的代價函數中加入對參數的懲罰:cdn
正則化後獲得的梯度降低算法與線性迴歸中很是像,只是假設函數不一樣而已。blog
ps. 本篇文章是根據吳恩達機器學習課程整理的學習筆記。若是想要一塊兒學習機器學習,能夠關注微信公衆號「SuperFeng」,期待與你的相遇。圖片