吳恩達機器學習(六)線性迴歸的梯度下降

線性迴歸的梯度下降 線性迴歸模型:線性假設函數 + 平方差代價函數 梯度下降算法可以優化J(θ0,θ1)最小平方差代價函數,實現好的梯度下降算法的關鍵,在於在導數項。 線性迴歸的代價函數,形狀總是凸函數(convex),只有一個全局最優解。 在梯度下降的過程中,假設函數h會逐漸和數據擬合。 以上我們所用到和了解的梯度下降方法,叫做Batch梯度下降法。 Batch梯度下降法:走的每一步都會全覽整個
相關文章
相關標籤/搜索