轉載至 http://blog.csdn.net/pzy20062141/article/details/48711355算法
1、roc曲線post
一、roc曲線:接收者操做特徵(receiveroperating characteristic),roc曲線上每一個點反映着對同一信號刺激的感覺性。測試
橫軸:負正類率(false postive rate FPR)特異度,劃分實例中全部負例佔全部負例的比例;(1-Specificity).net
縱軸:真正類率(true postive rate TPR)靈敏度,Sensitivity(正類覆蓋率)3d
2針對一個二分類問題,將實例分紅正類(postive)或者負類(negative)。可是實際中分類時,會出現四種狀況.blog
(1)若一個實例是正類而且被預測爲正類,即爲真正類(True Postive TP)排序
(2)若一個實例是正類,可是被預測成爲負類,即爲假負類(False Negative FN)ci
(3)若一個實例是負類,可是被預測成爲正類,即爲假正類(False Postive FP)it
(4)若一個實例是負類,可是被預測成爲負類,即爲真負類(True Negative TN)方法
TP:正確的確定數目
FN:漏報,沒有找到正確匹配的數目
FP:誤報,沒有的匹配不正確
TN:正確拒絕的非匹配數目
列聯表以下,1表明正類,0表明負類:
由上表可得出橫,縱軸的計算公式:
(1)真正類率(True Postive Rate)TPR: TP/(TP+FN),表明分類器預測的正類中實際正實例佔全部正實例的比例。Sensitivity
(2)負正類率(False Postive Rate)FPR: FP/(FP+TN),表明分類器預測的正類中實際負實例佔全部負實例的比例。1-Specificity
(3)真負類率(True Negative Rate)TNR: TN/(FP+TN),表明分類器預測的負類中實際負實例佔全部負實例的比例,TNR=1-FPR。Specificity
假設採用邏輯迴歸分類器,其給出針對每一個實例爲正類的機率,那麼經過設定一個閾值如0.6,機率大於等於0.6的爲正類,小於0.6的爲負類。對應的就能夠算出一組(FPR,TPR),在平面中獲得對應座標點。隨着閾值的逐漸減少,愈來愈多的實例被劃分爲正類,可是這些正類中一樣也摻雜着真正的負實例,即TPR和FPR會同時增大。閾值最大時,對應座標點爲(0,0),閾值最小時,對應座標點(1,1)。
以下面這幅圖,(a)圖中實線爲ROC曲線,線上每一個點對應一個閾值。
橫軸FPR:1-TNR,1-Specificity,FPR越大,預測正類中實際負類越多。
縱軸TPR:Sensitivity(正類覆蓋率),TPR越大,預測正類中實際正類越多。
理想目標:TPR=1,FPR=0,即圖中(0,1)點,故ROC曲線越靠攏(0,1)點,越偏離45度對角線越好,Sensitivity、Specificity越大效果越好。
二 如何畫roc曲線
假設已經得出一系列樣本被劃分爲正類的機率,而後按照大小排序,下圖是一個示例,圖中共有20個測試樣本,「Class」一欄表示每一個測試樣本真正的標籤(p表示正樣本,n表示負樣本),「Score」表示每一個測試樣本屬於正樣本的機率。
接下來,咱們從高到低,依次將「Score」值做爲閾值threshold,當測試樣本屬於正樣本的機率大於或等於這個threshold時,咱們認爲它爲正樣本,不然爲負樣本。舉例來講,對於圖中的第4個樣本,其「Score」值爲0.6,那麼樣本1,2,3,4都被認爲是正樣本,由於它們的「Score」值都大於等於0.6,而其餘樣本則都認爲是負樣本。每次選取一個不一樣的threshold,咱們就能夠獲得一組FPR和TPR,即ROC曲線上的一點。這樣一來,咱們一共獲得了20組FPR和TPR的值,將它們畫在ROC曲線的結果以下圖:
AUC(Area under Curve):Roc曲線下的面積,介於0.1和1之間。Auc做爲數值能夠直觀的評價分類器的好壞,值越大越好。
首先AUC值是一個機率值,當你隨機挑選一個正樣本以及負樣本,當前的分類算法根據計算獲得的Score值將這個正樣本排在負樣本前面的機率就是AUC值,AUC值越大,當前分類算法越有可能將正樣本排在負樣本前面,從而可以更好地分類。
2、AUC計算
1. 最直觀的,根據AUC這個名稱,咱們知道,計算出ROC曲線下面的面積,就是AUC的值。事實上,這也是在早期 Machine Learning文獻中常見的AUC計算方法。因爲咱們的測試樣本是有限的。咱們獲得的AUC曲線必然是一個階梯狀的。所以,計算的AUC也就是這些階梯 下面的面積之和。這樣,咱們先把score排序(假設score越大,此樣本屬於正類的機率越大),而後一邊掃描就能夠獲得咱們想要的AUC。可是,這麼 作有個缺點,就是當多個測試樣本的score相等的時候,咱們調整一下閾值,獲得的不是曲線一個階梯往上或者往右的延展,而是斜着向上造成一個梯形。此 時,咱們就須要計算這個梯形的面積。由此,咱們能夠看到,用這種方法計算AUC其實是比較麻煩的。
2. 一個關於AUC的頗有趣的性質是,它和Wilcoxon-Mann-Witney Test是等價的。這個等價關係的證實留在下篇帖子中給出。而Wilcoxon-Mann-Witney Test就是測試任意給一個正類樣本和一個負類樣本,正類樣本的score有多大的機率大於負類樣本的score。有了這個定義,咱們就獲得了另一中計 算AUC的辦法:獲得這個機率。咱們知道,在有限樣本中咱們經常使用的獲得機率的辦法就是經過頻率來估計之。這種估計隨着樣本規模的擴大而逐漸逼近真實值。這 和上面的方法中,樣本數越多,計算的AUC越準確相似,也和計算積分的時候,小區間劃分的越細,計算的越準確是一樣的道理。具體來講就是統計一下全部的 M×N(M爲正類樣本的數目,N爲負類樣本的數目)個正負樣本對中,有多少個組中的正樣本的score大於負樣本的score。當二元組中正負樣本的 score相等的時候,按照0.5計算。而後除以MN。實現這個方法的複雜度爲O(n^2)。n爲樣本數(即n=M+N)
3. 第三種方法實際上和上述第二種方法是同樣的,可是複雜度減少了。它也是首先對score從大到小排序,而後令最大score對應的sample 的rank爲n,第二大score對應sample的rank爲n-1,以此類推。而後把全部的正類樣本的rank相加,再減去M-1種兩個正樣本組合的狀況。獲得的就是全部的樣本中有多少對正類樣本的score大於負類樣本的score。而後再除以M×N。即
公式解釋:
一、爲了求的組合中正樣本的score值大於負樣本,若是全部的正樣本score值都是大於負樣本的,那麼第一位與任意的進行組合score值都要大,咱們取它的rank值爲n,可是n-1中有M-1是正樣例和正樣例的組合這種是不在統計範圍內的(爲計算方便咱們取n組,相應的不符合的有M個),因此要減掉,那麼同理排在第二位的n-1,會有M-1個是不知足的,依次類推,故獲得後面的公式M*(M+1)/2,咱們能夠驗證在正樣本score都大於負樣本的假設下,AUC的值爲1
二、根據上面的解釋,不可貴出,rank的值表明的是可以產生score前大後小的這樣的組合數,可是這裏包含了(正,正)的狀況,因此要減去這樣的組(即排在它後面正例的個數),便可獲得上面的公式
另外,特別須要注意的是,再存在score相等的狀況時,對相等score的樣本,須要 賦予相同的rank(不管這個相等的score是出如今同類樣本仍是不一樣類的樣本之間,都須要這樣處理)。具體操做就是再把全部這些score相等的樣本 的rank取平均。而後再使用上述公式。