機器學習-嶺迴歸python實踐【2】

寫在最前面: 當數據的特徵大於樣本點,線性迴歸就不能用了,因爲在計算[(X^T)*X]的逆時候,n>m,n是特徵,m是樣本點,此時的輸入矩陣不是滿秩矩陣,行列式爲0。 此時,我們可以使用嶺迴歸(ridge regression) 閱讀本文前,需要各位簡單回憶一下線性代數知識,關於矩陣的秩 簡單來說,嶺迴歸就是在矩陣(X^T)*X的基礎上加上λI,這樣使得矩陣非奇異,從而能對(XTX)-1+λI整體
相關文章
相關標籤/搜索