集成學習基本原理:Adaboost,Bagging和Stacking

集成學習的基本原理是,訓練多個「個體學習器」或者叫基分類器,基學習器。然後用某種策略將它們結合起來,最後可以產生比單一學習器優越得多的性能。 集成學習的基本原理是什麼呢?假設對於每個基分類器,錯誤率有: P(hi(x)≠f(x))=ϵ 並且 假設分類器之間之互相獨立的,那麼最終的錯誤率爲: P(H(x)≠f(x))≤exp(−12T(1−2ϵ)2) 可以看到當錯誤率 ϵ>0.5 隨着個體分類器數目
相關文章
相關標籤/搜索