Stanford機器學習-Linear Regressioon with Multiple variables(2)

Normal equation 在前面我們使用的都是梯度下降的方法,此外還有一種叫做正規方程的方法,有時效果更好。 如果代價函數是有關於參數的二次方程 如圖所示: 我們就可以使代價函數的偏導數爲零的方法來求得參數(微積分中類似於求極值的方式)。當代價函數爲平方誤差表達式時,我們同樣可以對每一個參數求偏導得到一組參數列表,使得代價最小。 在預測房價的例子中,我們使用矩陣X來存儲特徵值,使用向量Y來存
相關文章
相關標籤/搜索