吳恩達老師機器學習課程個人筆記(第七課)

1.黃海廣教授的完整筆記在pdf的P123~P129 2.正則化線性迴歸的目標,就是取到J( θ \theta θ)的最小值 3.正則化代價函數的梯度下降算法: 上面的 θ \theta θj的更新也可以寫成這樣子: 右邊的 θ \theta θj的係數往往是個接近於1但是小於1的數( α \alpha α很小但是m很大),所以每次 θ \theta θj的更新都相當於先把自己壓縮一點,然後正常更
相關文章
相關標籤/搜索