基於Bagging與boosting的算法2---AdaBoost

弱分類器—後一個在前一個的基礎上提升 誤差越小,權重越大 W_t(i)每個樣本的權重 樣本權重更新的計算—錯誤樣本,增加權重。 錯的才計算誤差,正確的不計算誤差 錯誤的,權重提高;但不代表每次都抽到錯誤的。 權重越大,被抽到的概率,越高 https://scikit-learn.org/stable/ 在api裏面搜索:Adaboost.參數自己調。
相關文章
相關標籤/搜索