在上一篇學習SVM中 從最大間隔角度出發,詳細學習瞭如何用拉格朗日乘數法求解約束問題,一步步構建SVM的目標函數,此次嘗試從另外一個角度學習SVM。html
數據:(\(x_i,y_i\))算法
模型 \(\hat{y_i} = f(x_i)\)函數
目標函數(損失函數+正則項) \(l(y_i,\hat{y}_i)\)學習
用優化算法求解優化
模型spa
svm要尋找一個最優分離超平面,將正樣本和負樣本劃分到超平面兩側.net
目標函數3d
損失函數+正則化htm
優化算法blog
梯度降低(求導時須要分段求導,見[1])
上圖橫軸 \(yf(x)>0\) 表示預測和真實標籤同樣,縱軸表示損失。能夠看處Hinge Loss 和其餘loss的區別在於,當 \(y_if(x_i) \geq 1\) 時,損失函數值爲 0,意味着對應的樣本點對loss沒有貢獻,就沒有參與權重參數的更新,也就是說不參與最終超平面的決定,這纔是支持向量機最大的優點所在,對訓練樣本數目的依賴大大減小,並且提升了訓練效率。
[1] https://blog.csdn.net/oldmao_2001/article/details/95719629
[2] http://www.javashuo.com/article/p-cxwgzibl-bs.html