機器學習中的經典算法「梯度下降法」(不同斜率的線中選擇相切的,找最低點)

一、什麼樣的損失函數比較容易求得最優解呢 沒錯,如果損失函數「就像這個碗,它又大又圓」,那麼我們很容易就能發現,這個損失函數的最低點有且只有一個,就是碗底。這是 Deeplearning.ai 課程中出現的碗,其中 J(w, b) 是邏輯迴歸的損失函數,這裏假設只有兩個參數 w 和 b,縱軸是 J(w, b) 的值。很容易發現,這個碗的最優解就在碗底。 粗略的說,這種長得像碗的函數就是凸函數。 二
相關文章
相關標籤/搜索