吳恩達 機器學習筆記二(lecture 2)(損失函數、梯度下降)

一、單變量的LR模型  最簡單的單變量線性迴歸模型: 二、損失函數(cost function) 在這個例子中使用的是平方誤差函數最爲損失函數,這是解決線性迴歸問題最常用的損失函數 1、假設函數和損失函數之間的關係 先考慮θ₀=0的情況:當θ₁ = 1時,損失函數取最小值 θ₀不知道時,兩個參數,對應的損失函數的圖像如下:是一個三維圖像。與上面例子類似,都是找到損失函數值最小時候的參數值。 三、梯
相關文章
相關標籤/搜索