局部加權迴歸(Locally weighted linear regression)

一般狀況下的線性擬合不能很好地預測全部的值,由於它容易致使欠擬合(under fitting),好比數據集是 一個鐘形的曲線。而多項式擬合能擬合全部數據,可是在預測新樣本的時候又會變得很糟糕,由於它致使數據的 過擬合(overfitting),不符合數據真實的模型。 python 今天來說一種非參數學習方法,叫作局部加權迴歸(LWR)。爲何局部加權迴歸叫作非參數學習方法呢? 首 先參數學習方法是這
相關文章
相關標籤/搜索