Adaboost理解筆記

上回我們講到boost以及GBDT,這次我們來講Adaboost的原理 我們之所以要進行集成學習是因爲單個模型的預測效果可能不好,要想達到強分類器的效果我們就需要結合多個弱分類器。 先看一個例子在講原理。 更具兩個相鄰的x的中值來選取閾值,如0.5,1.5,2.5。同時對每一個閾值要計算出準確率,也就是有多少正類,多少負類。初始化所有的權重都爲0.1。 比如我們選取0.5爲當前閾值。那麼正類全對,
相關文章
相關標籤/搜索