集成學習基本原理:Adaboost,Bagging和Stacking

集成學習的基本原理是,訓練多個「個體學習器」或者叫基分類器,基學習器。而後用某種策略將它們結合起來,最後能夠產生比單一學習器優越得多的性能。 集成學習的基本原理是什麼呢?假設對於每一個基分類器,錯誤率有: web P(hi(x)≠f(x))=ϵ 而且 假設分類器之間之互相獨立的,那麼最終的錯誤率爲: P(H(x)≠f(x))≤exp(−12T(1−2ϵ)2) 能夠看到當錯誤率 ϵ>0.5 隨着個體
相關文章
相關標籤/搜索