決策樹與隨機森林初探

1、特徵選擇的幾種方式 2、幾種常見的決策樹算法 3、過擬合處理——剪枝 4、連續值屬性特徵的處理 5、Bagging(代表:隨機深林) 6、Boosting(提升)(代表:AdaBoost、GBDT、XGBoost) 7、決策樹算法小結 決策樹的優勢力與劣勢 1、特徵選擇的幾種方式 決策樹的最關鍵的問題,如何選擇劃分屬性的順序才能使得決策樹的平均性能最好 舉例: 這堆西瓜的熵是Ent(D),按照
相關文章
相關標籤/搜索