用偏導數作爲梯度下降算法中下降量

機器學習2-7課講梯度下降算法   首先,這個算法基於cost函數J(θ0,θ1)的偏導數,目的是找J的最小值(局部最小),J最小代表h與實際的(x,y)分佈最接近。   運算時需要將(θ0,θ1)帶入到每次運算中的hθ。因爲每次梯度下降運算後,hθ=θ0+θ1x都會發生變化。   爲什麼偏導數是全部誤差的均值,(再乘係數α)? 因爲,那不是hθ的導數,而是代價函數J(θ0,θ1)的偏導數,想想什
相關文章
相關標籤/搜索