【機器學習】貝葉斯線性迴歸(最大後驗估計+高斯先驗)

引言 若是要將極大似然估計應用到線性迴歸模型中,模型的複雜度會被兩個因素所控制:基函數的數目(的維數)和樣本的數目。儘管爲對數極大似然估計加上一個正則項(或者是參數的先驗分佈),在必定程度上能夠限制模型的複雜度,防止過擬合,但基函數的選擇對模型的性能仍然起着決定性的做用。函數 上面說了那麼大一段,就是想說明一個問題:因爲極大似然估計老是會使得模型過於的複雜以致於產生過擬合的現象,因此單純的使用極大
相關文章
相關標籤/搜索