https://blog.csdn.net/baimafujinji/article/details/53269040算法
在2006年12月召開的 IEEE 數據挖掘國際會議上(ICDM, International Conference on Data Mining),與會的各位專家選出了當時的十大數據挖掘算法( top 10 data mining algorithms ),能夠參見文獻【1】。本博客已經介紹過的位列十大算法之中的算法包括:數據結構
決策樹模型是一類算法的集合,在數據挖掘十大算法中,具體的決策樹算法佔有兩席位置,即C4.5和CART算法。本文主要介紹分類迴歸樹(CART,Classification And Regression Tree)也屬於一種決策樹,但願你在閱讀本文以前已經瞭解前文已經介紹過以內容:dom
歡迎關注白馬負金羈的博客 http://blog.csdn.net/baimafujinji,爲保證公式、圖表得以正確顯示,強烈建議你從該地址上查看原版博文。本博客主要關注方向包括:數字圖像處理、算法設計與分析、數據結構、機器學習、數據挖掘、統計分析方法、天然語言處理。機器學習
CART假設決策樹是二叉樹,內部結點特徵的取值爲「是」和「否」,左分支是取值爲「是」的分支,右分支是取值爲「否」的分支。這樣的決策樹等價於遞歸地二分每一個特徵,將輸入空間即特徵空間劃分爲有限個單元,並在這些單元上肯定預測的機率分佈,也就是在輸入給定的條件下輸出的條件機率分佈。函數
CART算法由如下兩步組成:學習
CART決策樹的生成就是遞歸地構建二叉決策樹的過程。CART決策樹既能夠用於分類也能夠用於迴歸。本文咱們僅討論用於分類的CART。對分類樹而言,CART用Gini係數最小化準則來進行特徵選擇,生成二叉樹。 CART生成算法以下:測試
輸入:訓練數據集DD,中止計算的條件:
輸出:CART決策樹。大數據
根據訓練數據集,從根結點開始,遞歸地對每一個結點進行如下操做,構建二叉決策樹:atom
算法中止計算的條件是結點中的樣本個數小於預約閾值,或樣本集的Gini係數小於預約閾值(樣本基本屬於同一類),或者沒有更多特徵。spa
下面來看一個具體的例子。咱們使用《數據挖掘十大算法之決策樹詳解(1)》中圖4-6所示的數據集來做爲示例,爲了便於後面的敘述,咱們將其再列出以下:
首先對數據集非類標號屬性{是否有房,婚姻情況,年收入}分別計算它們的Gini係數增益,取Gini係數增益值最大的屬性做爲決策樹的根節點屬性。根節點的Gini係數
當根據是否有房來進行劃分時,Gini係數增益計算過程爲
若按婚姻情況屬性來劃分,屬性婚姻情況有三個可能的取值{married,single,divorced},分別計算劃分後的
的Gini係數增益。
當分組爲{married} | {single,divorced}時,SlSl表示婚姻情況取值爲married的分組,SrSr表示婚姻情況取值爲single或者divorced的分組
當分組爲{single} | {married,divorced}時,
當分組爲{divorced} | {single,married}時,
對比計算結果,根據婚姻情況屬性來劃分根節點時取Gini係數增益最大的分組做爲劃分結果,也就是{married} | {single,divorced}。
最後考慮年收入屬性,咱們發現它是一個連續的數值類型。咱們在前面的文章裏已經專門介紹過如何應對這種類型的數據劃分了。對此還不是很清楚的朋友能夠參考以前的文章,這裏再也不贅述。
對於年收入屬性爲數值型屬性,首先須要對數據按升序排序,而後從小到大依次用相鄰值的中間值做爲分隔將樣本劃分爲兩組。例如當面對年收入爲60和70這兩個值時,咱們算得其中間值爲65。假若以中間值65做爲分割點。SlSl做爲年收入小於65的樣本,SrSr表示年收入大於等於65的樣本,因而則得Gini係數增益爲
其餘值的計算同理可得,咱們再也不逐一給出計算過程,僅列出結果以下(最終咱們取其中使得增益最大化的那個二分準則來做爲構建二叉樹的準則):
注意,這與咱們以前在《數據挖掘十大算法之決策樹詳解(1)》中獲得的結果是一致的。最大化增益等價於最小化子女結點的不純性度量(Gini係數)的加權平均值,以前的表裏咱們列出的是Gini係數的加權平均值,如今的表裏給出的是Gini係數增益。如今咱們但願最大化Gini係數的增益。根據計算知道,三個屬性劃分根節點的增益最大的有兩個:年收入屬性和婚姻情況,他們的增益都爲0.12。此時,選取首先出現的屬性做爲第一次劃分。
接下來,採用一樣的方法,分別計算剩下屬性,其中根節點的Gini係數爲(此時是否拖欠貸款的各有3個records)
與前面的計算過程相似,對因而否有房屬性,可得
對於年收入屬性則有:
最後咱們構建的CART以下圖所示:
最後咱們總結一下,CART和C4.5的主要區別:
決策樹很容易發生過擬合,也就是因爲對train數據集適應得太好,反而在test數據集上表現得很差。這個時候咱們要麼是經過閾值控制終止條件避免樹形結構分支過細,要麼就是經過對已經造成的決策樹進行剪枝來避免過擬合。另一個克服過擬合的手段就是基於Bootstrap的思想創建隨機森林(Random Forest)。關於剪枝的內容能夠參考文獻【2】以瞭解更多,若是有機會我也可能在後續的文章裏討論它。