集成學習---(Boosting) Adaboost

  一、簡介 1、 AdaBoost就是損失函數爲指數損失的Boosting算法(當然這是後話,意思是指數損失的前向分步算法和Adaboost一致) 二、細節 1、算法流程 2、最重要的兩點 誤差率:==(也就是在一輪過後,誤差率直接用分錯樣本的權重想加就可以了)   (1)、弱分類器的權重如何確定 權重僅僅由該分類器的分類誤差率e決定,e的範圍應該是[0, 0.5] ,所以誤差率越大,權重越小
相關文章
相關標籤/搜索