機器學習第三週(二)--Cost function--Gradient descent

損失函數 梯度下降 其他優化算法 多分類 損失函數 損失函數:邏輯迴歸如果使用和線性迴歸相同的損失函數,那得到的損失函數圖像如下: 由函數圖像看出,這是一個非凸函數(凸函數最重要的特徵是局部最優解同時也是全局最優解),並不適用於做邏輯迴歸的損失函數。 我們對損失函數作出改變,得到全新的損失函數並得到其圖像: 從圖像看出,函數只有一個最小值,這個最小值是局部最小值同時也是全局最小值。這個損失函數是一
相關文章
相關標籤/搜索