「(1) 0-1 loss」web
記錄分類錯誤的次數。算法
「(2)Hinge Loss」編輯器
最經常使用在SVM中「最大優化間隔分類」中,對可能的輸出t=±1和分類器分數y,預測值y的hinge loss定義以下:函數
L(y)=max(0.1-t*y)學習
「(3)Log Loss對數損失」優化
對於「對數函數」,因爲其具備「單調性」,在求最優化問題時,結果與原始目標一致,在含有乘積的目標函數中(如極大似然函數),經過「取對數」能夠轉化爲求和的形式,從而大大簡化目標函數的「求解」過程。spa
「(4)Squared Loss 平方損失」orm
即真實值與預測值之差的平方和。一般用於線性模型中,如線性迴歸模型。ci
「(5)Exponential Loss指數損失」it
指數函數的特色是越接近正確結果偏差越小,Adaboost算法即便用的指數損失目標函數。可是指數損失存在的一個問題是誤分類樣本的權重會「指數上升」,若是數據樣本是異常點,會「極大地」干擾後面基本分類器學習效果。
❝拜託你一件事兒
關注我一下!
謝謝啦!
❞