adaboost總結

Adaboost 是集成學習中的一類,弱分類器之間存在強依賴性,必須串聯。 標準Adaboost只能用於二分類 主要關注降低偏差: 原因:(具體原因可以參考bagging與boosting兩種集成模型的偏差bias以及方差variance 的理解) boosting 中的每個模型都是弱模型,偏差高(在訓練集上準確度低),方差低(防止過擬合能力強) 平均法了降低偏差。 boosting 的核心思想就
相關文章
相關標籤/搜索