吳恩達機器學習筆記 —— 13 支持向量機

本章講述了SVM,相比於《統計學習方法》,從邏輯迴歸的角度更容易理解了。 更多內容參考 機器學習&深度學習 從邏輯迴歸來看,看損失值與Z的值的關係: 代入原來的是指,可以化簡公式: 總結來說:如果y=1,我們希望z的值大於等於1,如果y=0,我們希望z的值小於-1,這樣損失函數的值都會爲0. 線性可分的決策邊界: 但是這種情況對於異常點是非常敏感的,比如有一個紅點,那麼決策邊界就會發生很大的變化。
相關文章
相關標籤/搜索