機器學習 學習總結 第五章 梯度下降法求正則化代價函數最小值

求正則化代價函數最小值 梯度下降法 在求解之前的線性迴歸方程的代價函數的最小值時,我們使用了以下的方程來迭代θ值。 我們知道正則化後的代價函數中我們是從θ1開始懲罰,θ0並未動。所以我們將θ從迭代方程中分離出來。得到以下迭代方程: 其實並沒有任何改變,至少將計算θ0的等式分離出來了而已。 然後θj從1開始取值,到n。 如果我們想用這個方法來求節正則化的目標函數,我們還需要在θj的等式上添加一項。
相關文章
相關標籤/搜索