SVM的損失函數

一.    這個還要注意,他的正則化和普通的迴歸差不多,都是不考慮進去那個常數項 svm的原理是依據邏輯迴歸來的,在他的基礎上進行可一些修改和提煉(自己感覺的,不一定準確) 是最開始的學的預測函數,裏面含有常數項,也就是後來單獨添加了一列全爲1的數值,但是在正則化的時候,要把它先剔除出去。     神經網絡的偏置b也有點類似的思想 二.在加入核函數的時候,上面的損失函數就變成下面的樣子     (
相關文章
相關標籤/搜索