吳恩達《Machine Learning》-gradient descent 梯度下降(三)

在實際中,我們有n個參數θ0,θ1,θ2```````θn 在此我們以兩個參數舉例,最小化J(θ0,θ1) 算法: 我們以θ0=0,θ1=0開始, 保持θ0,θ1參數改變,然後查看J(θ0,θ1)。 當J(θ0,θ1)爲最小的時候 即爲結束 從圖中點出發,假設你身處在山頂上,即爲尋找當前最快下降的方向下山。 下降一個位置後,再次尋找當前最快下降的方向下山。 最後抵達了局部最優點(低點) 另一個位置
相關文章
相關標籤/搜索