20/03/13 機器學習---基礎算法 (4)

決策樹和隨機森林 決策樹算法的好處:訓練速度快,可以集成形成更優的決策樹 信息熵 離散隨機變量的熵 H ( P ) = − Σ i = 1 n P i l n P i H(P)=-\Sigma_{i=1}^nP_ilnP_i H(P)=−Σi=1n​Pi​lnPi​(一定是正數 ) 連續隨機變量的熵 H ( P ) = − ∫ f ( x ) l n x d x H(P)=-\int f(x)ln
相關文章
相關標籤/搜索