集成學習從放棄到再入門之GBDT

梯度下降法 在機器學習任務中,需要最小化損失函數L(θ),其中θ是要求解的模型參數。梯度下降法常用來求解這種無約束最優化問題,它是一種迭代方法。 具體推導爲: 這裏的α是步長,也就是我們通常所說的學習速率,在深度學習中需要調製的參數,可通過line search確定,但一般直接賦一個小的數。 GBDT GBDT是梯度下降法從參數空間上升到函數空間的算法,也是集成學習Boosting家族的成員,但是
相關文章
相關標籤/搜索