機器學習基礎(3)代價函數

上篇文章中我們提到了代價函數 J ( θ ) J(\theta) J(θ),並期望使它最小化,那代價函數長什麼樣子呢? 接下來,我們將給大家一個直觀的感受,看看參數 θ \theta θ取不同值時, J ( θ ) J(\theta) J(θ)的幾何呈現 我們可以把訓練集中的樣本 ( x , y ) (x,y) (x,y)想象成分散在xy平面上的點,然後通過一條直線來擬合這些點,這條直線就是我們的
相關文章
相關標籤/搜索