(二)深入梯度下降(Gradient Descent)算法

一直以來都以爲自己對一些算法已經理解了,直到最近才發現,梯度下降都理解的不好。 1 問題的引出 對於上篇中講到的線性迴歸,先化一個爲一個特徵θ1,θ0爲偏置項,最後列出的誤差函數如下圖所示: 手動求解 目標是優化J(θ1),得到其最小化,下圖中的×爲y(i),下面給出TrainSet,{(1,1),(2,2),(3,3)}通過手動尋找來找到最優解,由圖可見當θ1取1時,與y(i)完全重合,J(θ1
相關文章
相關標籤/搜索