[ML筆記]梯度下降和線性梯度下降

引導 前一篇講解代價函數作用,在監督學習的迴歸問題上,我們使用代價函數求解最優解,以確定假設函數。 代價函數公式 J(θ0,θ1)=12m∑m1(hθ(xi)−yi)2 上文也提到,在參數較爲複雜的情況下,代價函數的輪廓圖可能如下圖,該如何找到合適的 θ0,θ1 呢? 預備知識 有關導數,偏導數,方向導數,梯度,向量的概念請參考博文: [機器學習] ML重要概念:梯度(Gradient)與梯度下降
相關文章
相關標籤/搜索