吳恩達機器學習筆記2——logistic迴歸2

1. 代價函數 解釋: 在輸出的預測值是h(x),實際標籤是y的情況下,我們希望學習算法付出的代價。 然而,這個代價函數在線性迴歸裏可以,很好用。 但是在logistic迴歸中,就並不適用,會出現一些問題。 實際上,用這個代價函數的話,會變成關於θ的非凸函數。 因爲h(x)本身就是非線性,再去平方加和,更是非線性,就可能會使得代價函數的圖形變爲下圖左邊 這種圖用梯度下降算法的話,可能會找到好多局部
相關文章
相關標籤/搜索