AdaBoost、GBDT、RF、XGboost、lightGBM

      AdaBoost 簡單介紹 AdaBoost是基於boosting的思想,通過多個弱分類器的線性組合來得到強分類器,訓練時重點關注被錯分的樣本,準確率高的弱分類器權重大。 更深一步的介紹 在訓練過程中,它不改變所給的訓練數據,而是不斷改變訓練數據權值的分佈,使得被誤分類的數據再後一輪的分類中受到更大的關注。 同時採用加權多數表決的方法,加大分類誤差率小的弱分類器的權值,使其在最後的表決
相關文章
相關標籤/搜索