機器學習(八)——決策樹

Ø  根據各個維度的特性(信息增益、信息增益率、基尼係數)來確定決策樹分枝的節點; 分枝的原則爲保證組內方差最小、組間方差最大,即數據分類後的純度最高; 葉子節點達到預定的閾值時即結束細分; Ø  分枝的方式有兩類:先剪枝(去除掉數值小於某個閾值的葉子節點)、後剪枝(計算葉子節點的分類錯誤率,當節點數據的錯誤率大於閾值節點時則剪掉這個節點) 決策樹分爲決策樹與迴歸樹兩種,主要針對離散數據和連續數據
相關文章
相關標籤/搜索