模型集成Ensemble的理解(Bagging/ Boosting/ Adaboost/ Gradient Boosing/ Stacking)

本文主要參考臺灣大學李宏毅ML課程,加之自己的理解所寫 1. Bagging 一個複雜的模型可能會導致:高方差,怎麼辦? 多找幾個這樣的模型,組合取平均,這樣結果就會好很多 放回式抽樣,這樣可以獲得幾筆不同的數據集:DataSet->n*DataSet 使用這幾筆數據訓練不同的分類器 在測試集中,再使用上述幾個分類器,投票(分類)/ 取平均(迴歸) 對Decision Tree使用Bagging—
相關文章
相關標籤/搜索