AdaBoost, LogitBoost and GradientBoosting

前向分步算法與加法模型(forward stagewise algorithm and additive model)   (1) AdaBoost:前向分步算法中損失函數取指數損失函數 (2) LogitBoost:前向分步算法中損失函數取的是Logistic Loss (3) GradientBoosting(梯度提升):當損失函數是平方損失和指數損失函數時,每一步優化是很簡單的。比如對於平方
相關文章
相關標籤/搜索