機器學習,詳解SVM軟間隔與對偶問題

今天是機器學習專題的第34篇文章,我們繼續來聊聊SVM模型。 我們在上一篇文章當中推導了SVM模型在硬間隔的原理以及公式,最後我們消去了所有的變量,只剩下了 α \alpha α。在硬間隔模型當中,樣本是線性可分的,也就是說-1和1的類別可以找到一個平面將它完美分開。但是在實際當中,這樣的情況幾乎是不存在的。道理也很簡單,完美是不存在的,總有些樣本會出錯。 那針對這樣的問題我們應該怎麼解決呢? 軟
相關文章
相關標籤/搜索