[機器學習&數據挖掘]SVM---軟間隔最大化

根據上個硬間隔最大化已經知道,在解決線性可分數據集的分類問題時,求得拉格朗日乘子、w、b就獲得分離超平面,而後就能夠進行分類,軟間隔最大化是針對非線性可分的數據集,由於並非數據集在可分的時候會出現一些個別的點不可以被正確劃分,而被劃分到另外一類中,軟間隔最大化就是對目標函數加上一個懲罰項,或者說是鬆弛變量,這樣能夠稍微靈活的進行分類,所以須要對上邊所說的問題、公式進行一些調整。函數

 所以原始問題就變成以下:3d

                    

其中是鬆弛變量,C是懲罰參數,通常由應用問題決定,C增大對誤分類的懲罰增大,C減少對誤分類的懲罰減少。blog

對偶問題則變成以下:變量

                    

接下來的w和b的求解公式便與硬間隔最大化是相同的以下:im

                    

相關文章
相關標籤/搜索