GBDT的訓練能否並行,隨機森林呢?

首先講結論:GBDT不可並行訓練,隨機森林可以並行訓練。 然後講原因,如下。   GBDT原理:https://blog.csdn.net/NXHYD/article/details/104601247 GBDT是通過採用加法模型(即基函數的線性組合),以及不斷減小訓練過程產生的殘差來達到將數據分類或者回歸的算法。 可以看到,GBDT每一次訓練出來的弱分類器都會被用來進行下一個弱分類器的訓練。因此
相關文章
相關標籤/搜索