集成學習(2)--Python

上節課咱們介紹了AdaBoost這一算法,其基本思想就是經過集中關注被已有分類器分類錯誤的那些數據來訓練新的分類器。 在上一節中估計每一個分類器偏差: ϵt=P(ht(x)≠f(x))=分類錯誤的樣本數目所有樣本數目 而後根據這一偏差來計算每一個分類器的權重 α=12ln(1−ϵϵ) 計算alpha值後,能夠對權重向量進行跟新,以使得錯分類樣本權重加大,正確分類的樣本權重下降。 權重更新公示: D
相關文章
相關標籤/搜索