【深度之眼】吳恩達《機器學習》作業——week1代價函數

代價函數 首先回顧一下我們之前提到的訓練集,及線性迴歸假設: 其中 θ 0 , θ 1 \theta_0,\theta_1 θ0​,θ1​ 是我們要選擇的參數。 我們希望我們的模型,或者說我們擬合的曲線,能夠接近訓練集的真實狀況,即我們的預測值和真實至之間的差距要越小越好。 也就是說要選擇合適的 θ 0 , θ 1 \theta_0,\theta_1 θ0​,θ1​,最小化 h θ ( x ( i
相關文章
相關標籤/搜索