機器學習——從Adaboost,Gradient Boost到XGBoost

前言 機器學習中用數據訓練模型的目標: 最小化目標函數 目標函數通常可以分爲兩部分: (1)損失函數(經驗風險):與訓練任務有關,度量模型預測值與真值之間的差異,最小化用於選擇與訓練數據匹配最好的模型: 迴歸:與殘差相關的函數,包括MSE(L2損失),MAE(L1損失),Huber Loss,平滑的MSE等; 分類:與分類是否正確(或分類正確的概率)有關的的函數:0-1損失,負對數似然損失,Hin
相關文章
相關標籤/搜索