決策樹剪枝、連續值、缺省值處理

1.決策樹剪枝 首先剪枝(pruning)的目的是爲了不決策樹模型的過擬合。由於決策樹算法在學習的過程當中爲了儘量的正確的分類訓練樣本,不停地對結點進行劃分,所以這會致使整棵樹的分支過多,也就致使了過擬合。決策樹的剪枝策略最基本的有兩種:預剪枝(pre-pruning)和後剪枝(post-pruning):git 預剪枝(pre-pruning):預剪枝就是在構造決策樹的過程當中,先對每一個結點在
相關文章
相關標籤/搜索