決策樹

決策樹簡介 非參數學習算法 天然可解多分類問題 也可解決迴歸問題 非常好的解釋性 信息熵 熵在信息論中代表,隨機變量不確定度的度量。 熵越大,數據的不確定性越高;熵越小,數據的不確定性越低。 H = − ∑ i = 1 k p i l o g ( p i ) H = -\sum\limits_{i=1}^kp_ilog(p_i) H=−i=1∑k​pi​log(pi​) 其中 p i p_i pi
相關文章
相關標籤/搜索