coursera《機器學習》吳恩達-week1-03 梯度下降算法

梯度下降算法 最小化代價函數J 梯度下降 使用全機學習最小化 首先查看一般的J()函數 問題 我們有J(θ0, θ1) 我們想獲得 min J(θ0, θ1) 梯度下降適用於更一般的功能 J(θ0, θ1, θ2 …. θn) min J(θ0, θ1, θ2 …. θn) 這一算法如何工作?: 從初始假定開始 從0,0開始(或任何其他值) 保持一點點的改變θ0和θ1,來試圖減少 每次更改參數時,
相關文章
相關標籤/搜索