Classification Tree

ID3->C4.5->C5.0 Decision Tree theory 1、所有的數據放在根節點 2、分堆 注意事項: 1、屬性選擇的結果是目標變量偏向於一個值 2、砍樹。(防止過擬合) 1、越傾向於1越平均化;傾向於0越偏某一類。 交叉熵在0-1之間。 注意事項 1、決策樹和規則不一樣。規則是提取的精華。決策樹是有繁瑣的規則在的。 2、分類規則的算法和決策樹不一樣。WEKA提供。modeler
相關文章
相關標籤/搜索