機器學習之XGBoost集成算法、極大似然、牛頓法

一、XGBoost算法 基本構成 boosted tree作爲有監督學習算法有幾個重要部分:模型、參數、目標函數、優化算法 模型 模型指給定輸入x如何去預測輸出y 參數 參數指我們需要學習的東西,在線性模型中,參數指我們的線性係數w 目標函數 目標函數:損失 + 正則,教我們如何去尋找一個比較好的參數 一般的目標函數包含下面兩項: Bias-variance tradeoff,Bias可以理解爲假
相關文章
相關標籤/搜索