吳恩達機器學習筆記系列(五)——梯度下降

一、gradient descent (梯度下降) 1、概念: 線性迴歸的目的就是找出使得誤差(損失函數)最小的參數值。可以用梯度下降來確定 參數的大小。 梯度下降是一種迭代方法,能夠求解局部最小值,結果與初始點的選取有關。爲了找到最小值,從某一點開始,每次都往梯度下降最快的方向移動。如下圖所示,當凹處不止一個時,選擇不同初始點可能得到的結果差別很大。 2、更新規則: 對於線性迴歸的梯度下降的更新
相關文章
相關標籤/搜索