AdaBoost基本原理與算法描述

一. 前言 最近在看集成學習方法,前面已經對XGBoost的原理與簡單實踐作了介紹,此次對AdaBoost算法作個學習筆記,來鞏固本身所學的知識,同時也但願對須要幫助的人有所幫助。html 關於集成學習主要有兩大分支,一種是bagging方法,一種是boosting方法。web bagging方法的弱學習器之間沒有依賴關係,各個學習器能夠並行生成,最終經過某種策略進行集成獲得強學習器(好比迴歸問題
相關文章
相關標籤/搜索