【機器學習】 前向分佈算法與GBDT算法梳理

1.前向分佈算法  基本思想:每次只學習一個基函數及係數,逐步逼近最優解。html 以下所示:git 其中  爲基函數,爲基函數係數,爲基函數的參數,這樣只須要給定訓練集與損失函數github 就能夠利用最小化損失函數的原理進行學習,這樣每次新一輪的學習只須要學習一個基函數的參數與對應的係數。算法 一個栗子:小明有100個蘋果,小紅第一次猜1*50個,剩餘50個沒猜對(殘差),下一次小紅猜有1*5
相關文章
相關標籤/搜索