決策樹特徵分裂爲什麼不選擇最小化訓練偏差?

在博客上看到有博主說是由於使用最小化訓練偏差可能會致使過擬合,因此沒有選擇,感受理解的彷佛有點問題,這邊給出本身的一些理解。web 1.首先一點,線性迴歸,邏輯迴歸等都是要基於最小化訓練偏差來作,應該是基本全部的分類算法都是要最小化訓練偏差的,只是損失函數的不一樣致使選擇的目標函數不一樣的緣由,不太會由於可能過擬合而不選擇最小化訓練偏差。算法 2.第二點,決策樹的生成是遞歸生成,而且是貪心地生成的
相關文章
相關標籤/搜索