機器學習:支持向量機SVM-軟間隔

上兩篇( 機器學習:支持向量機SVM簡述,機器學習:支持向量機SVM對偶問題)都是討論的硬間隔,即要求每個樣本的都正確分類,但在實踐中這個要求可能不太容易實現,所以提出軟間隔:允許某些樣本不滿足約束Yi(w'Xi+b)>=1. 雖然允許某些樣本不滿足約束,但不滿足約束的樣本應該儘可能少,於是優化目標可以寫成: 其中: 是「0/1損失函數」。但該函數非凸、非連續,數學性質不好,所以出現了一些替代函數
相關文章
相關標籤/搜索