吳恩達機器學習課程第一週

關於線性迴歸的記錄: 使用的損失函數是平方誤差損失函數J(θ),也就是最簡單的假設函數和真實值差的平方和(對於所有樣本求和),然後最小化J(θ),也就是使用梯度下降算法;平方誤差代價函數是解決迴歸問題最常見的手段; 對於單變量線性迴歸問題: 如果是對於單變量線性迴歸,代價函數(參數爲θ)關於假設函數中參數的圖形爲: 因爲只有一個變量所以只有兩個參數,總可以找到一組參數使得該代價函數最小,當然我們需
相關文章
相關標籤/搜索