Robust regression(穩健迴歸)
語法
b=robustfit(X,y)
b=robustfit(X,y,wfun,tune)
b=robustfit(X,y,wfun,tune,const)
[b,stats]=robustfit(...)
描述
b=robustfit(X,y) 經過執行穩健迴歸來估計線性模型y=Xb,並返回一個由迴歸係數組成的向量b。X是一個n*p預測變量矩陣,y是一個n*1觀測向量。計算使用的方法是加 上bisquare加權函數的迭代重加權最小二乘法。默認的狀況下,robustfit函數把全1的一個列向量添加進X中,此列向量與b中第一個元素的常 數項對應。注意不能直接對X添加一個全1的列向量。能夠在下面的第三個描述中經過改變變量「const」來更改robustfit函數的操做。 robustfit函數把X或y中的NaNs做爲一個缺省值,接着把它刪除。
b=robustfit(X,y,wfun,tune) 增長了一個加權函數「wfun」和常數「tune」。「tune」是一個調節常數,其在計算權重以前被分紅殘差向量,若是「wfun」被指定爲一個函數, 那麼「tune」是必不可少的。權重函數「wfun」能夠爲下表中的任何一個權重函數:
權重函數(Weight Function) |
等式(Equation) |
默認調節常數(Default Tuning Constant) |
'andrews' |
w = (abs(r)<pi) .* sin(r) ./ r |
1.339 |
'bisquare' (default) |
w = (abs(r)<1) .* (1 - r.^2).^2 |
4.685 |
'cauchy' |
w = 1 ./ (1 + r.^2) |
2.385 |
'fair' |
w = 1 ./ (1 + abs(r)) |
1.400 |
'huber' |
w = 1 ./ max(1, abs(r)) |
1.345 |
'logistic' |
w = tanh(r) ./ r |
1.205 |
'ols' |
傳統最小二乘估計 (無權重函數) |
無 |
'talwar' |
w = 1 * (abs(r)<1) |
2.795 |
'welsch' |
w = exp(-(r.^2)) |
2.985 |
若是「tune」未被指定,那麼其默認值爲表中對應值。「wfun」也能夠是一個把殘差向量做爲輸入,併產生一個權重向量做爲輸出的函數。經過標準偏差估計和調節參數來調整殘差。「wfun」能夠用@(@wyfun)。
b=robustfit(X,y,wfun,tune,const)增長一個「const」控制模式內是否包含一個常數項,默認爲包含(on)。
[b,stats]=robustfit(...)返回一個包含一下域的STATS結構。
'ols_s' sigma estimate (rmse) from least squares fit
'robust_s' robust estimate of sigma
'mad_s' MAD estimate of sigma; used for scaling
residuals during the iterative fitting
's' final estimate of sigma, the larger of robust_s
and a weighted average of ols_s and robust_s
'se' standard error of coefficient estimates
't' ratio of b to stats.se
'p' p-values for stats.t
'covb' estimated covariance matrix for coefficient estimates
'coeffcorr' estimated correlation of coefficient estimates
'w' vector of weights for robust fit
'h' vector of leverage values for least squares fit
'dfe' degrees of freedom for error
'R' R factor in QR decomposition of X matrix
The ROBUSTFIT function estimates the variance-covariance matrix of the coefficient estimates as V=inv(X'*X)*STATS.S^2. The standard errors and correlations are derived from V.
matlab例子:
x = (1:10)';
y = 10 - 2*x + randn(10,1); y(10) = 0;
使用原始最小二乘估計和穩健迴歸估計結果以下:
bls = regress(y,[ones(10,1) x])
bls =
7.2481
-1.3208
brob = robustfit(x,y)
brob =
9.1063
-1.8231
顯示結果以下:
scatter(x,y,'filled'); grid on; hold on
plot(x,bls(1)+bls(2)*x,'r','LineWidth',2);
plot(x,brob(1)+brob(2)*x,'g','LineWidth',2)
legend('Data','Ordinary Least Squares','Robust Regression')
一個來自網的例子的matlab實現:
估計:(K>0)
matlab實現代碼:
博客中對M估計法有蠻好的解釋。