在不少真實業務場景中,包括筆者所在的網絡安全領域,誤報形成的損失經常比漏報來的要大,緣由很簡單,若是一個IDS系統天天都在產生大量虛警,那麼對事件響應處理人員的壓力就會很是大,時間久了,你們對IDS的信任度就會降低,同時真實的有效告警也可能被淹沒在海量的虛警中,反而致使更多和更嚴重的漏報。html
但另外一方面,可能有人會質疑說漏報的影響不是更惡劣嗎?難道不該該秉着」寧肯錯殺一千,不可放過一個可疑「的方針嗎?算法
根據筆者目前的從業經驗來看,沒有必要這樣。一個好的作法是構建多層次的縱深檢測體系,大白話就是在一個KILLCHAIN的每個環節都有針對性地部署一個IDS,同時追求每一個IDS的精確度,對於單個IDS來講,儘可能少誤報,對於總體系統來講,全部IDS綜合起來構成了一個縱深體系,攻擊者想要穿透這個體系而不引起任何的告警,就須要很是高超的技巧和當心翼翼的動做,而這有時候也反過來限制了攻擊者所能作的動做,例如內網掃描這件事。安全
說完了代碼敏感學習的應用場景,接下來的問題確定是:代價敏感函數是什麼?簡單的回答是:代價敏感學習是在原始標準代價損失函數的基礎上,增長了一些約束和權重條件,使得最終代價的數值計算朝向一個特定的方向偏置(bias),而這個偏置就是具體業務場景更關注的部分。網絡
咱們先來看一下常規的代價函數是如何計算的。機器學習
通常來講,機器學習領域的檢測分類算法所關注的僅僅是如何獲得最高的正確率(acc),以2-class分類爲例,咱們可使用一個二維矩陣來描述分類算法的預測結果,以下圖所示:ide
表中的列表示實際數據所屬類別,行表示分類算法的預測類別函數
無論使用了損失函數是何種形式,形式上,算法的預測錯誤的便是 FP 和 FN 兩部分所表示,即:Loss = Loss(FP)+ Loss(FN)。性能
從損失函數的通用數學公式角度來看,損失函數的求導優化對 FP 和 FN 是沒有任何偏置的。分類算法所關心的是如何使得 FP+FN 的值儘量的小,從而得到較高的分類準確率。對於 FP、FN 兩部分各自在錯誤實例中所佔的比重,傳統損失函數並無加以任何的考慮和限制。學習
換句話說,傳統損失函數其實是創建在下述假設的基礎之上的:優化
在全部狀況下,分類算法作出 FN 判斷和作出 FP 判斷對於實際結果的影響因子是徹底相同的。因此咱們能夠不對兩種誤判所佔的比例加以約束。
然而在現實世界中,這一假設每每是並不成立的,在實際的業務場景中,FN 和 FN 所帶來的實際損失每每是不一樣的。一個被廣爲接受的上述假設的反例就是銀行借貸問題。
從機器學習算法的角度考慮,算法的分類結果應該使得錯誤分類率降到最低;
而在實際應用中,算法的分類結果應該保證分類結果給銀行形成的損失較小;
在實際狀況中,銀行作出 FP 判斷(即沒有將貸款貸給符合條件的申請人),所形成的損失要遠小於其作出 FN 判斷(即將貸款貸給不符合條件的申請人所形成的損失的)
若是咱們用下圖來描述銀行作出不一樣決定所形成的不一樣的代價的的cost matrix:
分類算法致使的實際損失等於:
Loss-real = FP * C01 + FN * C10
假設如今有兩個分類已訓練好的算法 A 和 B,對於 10 個貸款申請人進行分類。
咱們令:
loss(FN)c10 = 10; loss(FP)c01 = 1;
若 A/B 算法的分類結果爲下圖
從數值計算的角度,A 算法的分類正確性要優於 B 算法:Acc(A)= 80% > Acc(B)= 60%
可是從實際業務場景角度,銀行實際損失,A 算法的性能卻不如 B 算法:Loss(A)= 20 > Loss(B)= 4
這就是 cost-sensitive 分類算法所關注和研究的問題。
利用 cost matrix,咱們能夠將 cost-sensitive 分類問題轉化一個最優化問題,對於二分類分類算法來講只有2種判斷結果,因此優化目標爲讓下式 L(x, i)達到最小值:
其中 x 是一個實例;
(x, i)表示將其分爲 i 類;
上述公式中,由於損失權重偏置因子c(i,j)的加入,使得咱們的目標使得模型再也不單純關注如何得到 P(j|x)的最大值,而是要綜合考慮預測結果P(j | x)以及不一樣預測結果形成的損失c(i,j)。這兩個因子互相牽制。
一般狀況下,咱們使用 cost matrix 描述待分類數據集上的 cost 信息。Cost matrix C 是一個N × N的矩陣,其中 N 表明待分類數據集中的類別的數量。
C 中的條目 c(i, j)表示分類算法將實際屬於 j 類獲得實例分爲 i 類所形成的 cost。當 i = j 時表明分類算法正確預測了實例的類別,而i ≠ j的條目對應於不正確的分類結果。
在對 c(i, j)進行賦值的過程當中,通常會遵循合理性原則:
即錯誤分類的形成的 cost 確定要大於正確分類形成的 cost;
cost matrix 中的 c(i, j) = 0 , when i = j,而對於其餘錯誤的分類結果對應的條目 c(i, j), 咱們賦其值爲正數,用於表示其代價;
從宏觀角度來看,代價損失權重因子c(i, j)能夠理解爲一種先驗知識。加入損失權重因子c(i, j)後,目標函數L(x,i)從最大似然估計轉變爲了最大後驗估計。
筆者認爲,cost sensitive的本質是「對不一樣的後驗預測結果,的條件機率 P(y|x) 賦予不一樣的懲罰因子」。
在 2-class 分類中,cost-sensitive 分類算法將實例 x 分爲 1 類的條件是當且僅當將 x 分爲 1 類所形成的預期 cost,不大於將 x 分爲 0 類的損失。即
當式子取等號時,這就是所謂的分類器最優決策面(auc曲線自己)。能夠看到,cost matrix的不一樣取值,影響了這個分類器最優決策面的位置,具體如何分析這種影響,咱們文章的後面會繼續深刻討論。
筆者但願和你們一塊兒更深刻思考一下,代價敏感損失的本質是什麼。
雖然大量的paper上都提出了cost-sensitive是對不一樣的predict result給予不一樣的損失因子,這是離散的範疇。可是筆者認爲這個概念能夠繼續延展到連續無限的範疇,即對對數概率迴歸損失(sigmoid)這種損失函數也一樣起做用,sigmoid本質上也體現了cost sensitive的思想。
一個標準的sigmoid函數以下:
sigmoid函數的輸出表明瞭對發生概率的預測,目標y爲 {1,0},即發生於不發生,而sigmoid的輸出介於【0,1】之間。
從函數曲線上能夠很容易看出:
對於靠近【0,1】兩側的預測值,預測值和實際值的差值是比位於中間機率的差值要小的,所以這個區域中的1階導數相對就較低,這進而致使了例如GD算法的最終損失較低;
而位於【0,1】中間位置的地方,1階導數相對較高,進而致使最終損失較高;
經過這種函數特性,sigmoid函數會「驅使」模型將預測結果向靠近 0 或者靠近 1 的方向前進,或者說sigmoid函數不喜歡模糊地帶,而偏心(bias)肯定性的結果。
若是咱們畫出ROC曲線,橫軸和縱軸分別是 acc 和 recall,能夠現象,曲線是一個形以下圖的曲線:
損失函數的極值點就是最終的決策分界面和ROC曲線的「切線點」(圖中的綠點)。
咱們能夠作一個直觀的想象:cost() 函數起到的做用是「拉伸」原始的ROC曲線,使其向acc或者recall的方向拉伸,拉伸的結果會致使超分界面「提前」和 acc 或者 recall 方面相切。
對誤報的懲罰加大:cost()對FN的因子比例增大,則使roc曲線朝上圖中 true positive rate 方向拉伸,即向上,則相切點會更靠下,最終的效果是得到更低的 true positive rate;
對漏報的懲罰加大:cost()對FP的因子比例增大,則使roc曲線朝上圖中 false positive rate 方向拉伸,即向左,則相切點會更靠右,最終的效果是得到更低的 false positive rate;
以上的函數幾何視角,啓發咱們一點:
cost-sensitive Loss Function 的做用本質上是經過「拉伸」損失函數的函數形式,進而影響模型的最優決策面。對 acc 和 recall 的不一樣權重因子,最終影響了 roc 曲線中向 acc 和 recall 方向的偏離程度。
固然,cost-sensitive只是影響了模型最優決策面的位置,最優決策面並非最終的決策函數。
若是將auc函數當作是【x,y】座標系的話,不一樣的x,y取值表明了最終決策不一樣的偏向,例如咱們取x=0.1,即追求低誤報,則相對的,y值確定也低,即召回也低了。若是咱們稍微放低一些對低誤報的追求,則召回也能對應提升。在實際的tensorflow開發中,這經過對最終模型預測的p的threshold來實現。
那cost-sensitive在這裏又扮演了什麼角色呢?
簡單來講能夠這麼理解,在相同的threshold前提下,誤報敏感損失函數會使得模型得到更低的誤報,漏報敏感損失函數會使得模型會的更低的漏報。
可是要始終牢記的是:最終的模型效果是兩部分組成的,AUC函數的形式+認爲設定的threshold決策策略。
解決 cost-sensitive 分類問題的核心在於解決的優化問題,即如何使得分類算法的結果可以得到有傾向性的L值。
目前,在如何得到有傾向性的分類算法這一問題上,目前有幾種比較主流的方法:
經過有意調整,將訓練數據集的正負例呈現不一樣數量比,以提升分類算法對於某些分類結果的敏感性。
例如若是想得到更高的acc,更低的誤報,咱們在訓練集中,調整反例的數量是正例的數倍。相關的討論,能夠參閱另外一篇blog。
經過修改不一樣分類在算法中的 class membership probability,以得到具備必定數據傾向性的分類算法。這種算法被稱爲reweighted。這種方法也是本文主要討論的。
目前,分類決策樹、神經網絡、支持向量機(SVM)、boosting等經常使用學習算法都有其對應的代價敏感擴展算法。
各個方法在具體形式上各不相同,但其核心思想是一致的,這裏以AdaCost爲例舉例說明。
AdaCost 算法由 AdaBoost 分類算法改進而來,也是一種經過 reweighted 方式獲取 cost-sensitive 分類算法的方法。
AdaCost 的基本思想是使用若干個較弱的分類器以投票方式集成出一個分類器,各個分類器的權值由評價函數調整肯定。在 AdaBoost 算法中,評價函數僅和算法的分類準確性相關。W.Fan 等人在 AdaBoost 的評價函數中引入了 cost 的元素,使得分類算法可以有效下降分類結果的 cost 值。
具體來講 AdaCost 算法添加了一個評價分類結果的 cost 性能的函數β:y × X × c → ℝ+,使得訓練出來的弱分類器的權值集合可以符合 cost-sensitive 的要求。下面給出其僞碼:
Relevant Link:
http://202.119.32.195/cache/4/03/lamda.nju.edu.cn/d2623fb33f624a2a05033bb5d0e23d45/qiny.pdf http://lamda.nju.edu.cn/huangsj/dm11/files/qiny.pdf https://homes.cs.washington.edu/~pedrod/papers/kdd99.pdf https://cling.csd.uwo.ca/papers/cost_sensitive.pdf
上個章節中,咱們談到了一個詞,」分類器最優決策面「,這個東西是什麼呢?這個章節咱們來詳細討論。
對於二分類問題, 定義2級代價矩陣(cost matrix):
,其中
是將b類樣本預測爲a類樣本的分類代價。
據Bayes決策理論,最優決策的目標是最小化指望分類代價(最大後驗機率估計),即給定樣本x,若下式成立,則預測其類別爲正;不然,預測其類別爲負。
,其中 p(x)爲後驗機率,p(x) = P(y = +1|x),1 − p(x) = P(y = −1|x)。
上式的意思是:當,Loss(正例判對+負例誤報爲正例)<= Loss(正例漏報,負例判對)時,模型預測最終結果爲正。
將上式移項後可重寫爲:
其中:
:表示正樣本的分類代價;
:表示負樣本的分類代價;
所以貝葉斯最優分類器輸出的分類器函數爲(這裏不考慮人爲設定的threshold決策函數):
所以,Bayes分類器也可寫做:
當正負類別分類代價相等時,即c+ = c−,Bayes分類器退化爲普通的無偏損失函數;而當c+和c-存在不對稱偏置時,Bayes分類器也成爲有偏損失函數。
cost matrix本質上是改變了Bayes分類器的損失理論上界。
代價敏感損失函數需知足Bayes一致性,即單調性。
新設計的代價敏感損失函數知足下述特性:
對應的條件代價敏感風險
在Bayes分類邊界(分類器最優決策面)
處取得最大值。
Bayes分類器的指望分類代價爲:
在分類邊界處,將樣本x判爲正、負類別的分類代價相等並達到最大值
,此時最難預測樣本類別。
Relevant Link:
https://www.cnblogs.com/Determined22/p/6347778.html http://jcta.cnjournals.com/cta_cn/ch/reader/view_abstract.aspx?doi=10.7641/CTA.2015.40519 https://www.bilibili.com/read/cv112928/ https://www.zhihu.com/question/27670909 《統計決策論及貝葉斯分析》- J.O.伯傑
這個章節,咱們來真正進入代價敏感函數的內部原理,探究一下cost matrix是如何影響原始損失函數的形態,進而影響原始損失函數的性質的。
咱們前面說過,當正負類別分類代價相等時,即c+ = c−,Bayes分類器退化爲普通的無偏損失函數;而當c+和c-存在不對稱偏置時,Bayes分類器也成爲有偏損失函數。
因此這裏先來看下咱們熟悉的原始無偏損失函數的函數性質。
具體探討如下損失函數:平方損失、指數損失、對數損失、SVM損失。這幾種損失函數都可表示爲間隔yF(x)的函數, 即,以下圖所示:
下標給出了各個損失函數對應最優決策函數及其條件風險
:
下圖給出了各個損失函數的最優解和最優解處的條件風險:
能夠看到,在無偏損失狀況下,與貝葉斯分類器
等價,最優解處的條件風險與最小分類偏差一致,即在p(x) = 1/2 處取得最大值。
這和咱們的認識是一致的,怎麼理解呢?簡單來講能夠這麼理解。
若是咱們使用邏輯斯蒂迴歸訓練一個二分類器,那麼咱們能夠設定預測的閾值p爲0.5,當>=0.5時,預測結果爲正例,當<0.5時預測結果爲負例。這是最優的閾值,任何偏離0.5的閾值p都會增長損失:
決策閾值向0.5左偏:總體損失的增長主要來自誤報增長。
決策閾值向0.5右偏:總體損失的增長主要來自漏報增長,固然在某些狀況下,漏報多是咱們能夠接受的,由於這換取了必定的誤報下降。
討論完了原始的無偏損失函數,接下來咱們要開始討論有偏的代價損失函數,現有算法有如下兩類經常使用分類代價引入策略:
1) 分類代價在損失函數外:cyL(yF(x)); 2) 分類代價在損 函數內:L(ycyF(x));
這種類型的代價敏感損失將分類代價與原始損失相乘。
下表給出了各個代價敏感損失此時的最優決策和最優決策處的條件代價敏感風險
。
咱們取c+ = 1.5,c− = 0.5這種偏置組合,此時,Bayes分類器爲
繪製各個損失函數的最優解和最優解處的條件風險:
能夠看出,4種代價敏感損失均知足準則1,即最優分類器爲Bayes分類器。
另外一方面,除代價敏感SVM損失外,其他損失均不知足準則2, 最優解處的條件代價敏感風險沒有在Bayes分類邊界處取得最大值,而是有不一樣程度的偏移。
這種類型的代價敏感損失將分類代價引入損失函數內部,將其與判決函數F相乘。
下表列出了各個代價敏感損失此時的最優決策和最優決策處的條件代價敏感風險
咱們取c+ = 1.5,c− = 0.5這種偏置組合,繪製各個損失函數的最優解和最優解處的條件風險:
可看出,4種代價敏感損失均知足準則1和準則2,即最優分類器爲Bayes分類器,最優解處的條件代價敏感風險在Bayes分類邊界
處取得最大值。
這種損失偏置條件下,模型的漏報會傾向於低漏報。
綜上,雖然這4種損失函數代價敏感化以後並未都嚴格知足準則1/2,可是整體上,cost sensitive實際上扭曲了原始損失函數的函數曲線,使其發生了偏置。
Relevant Link:
http://jcta.cnjournals.com/cta_cn/ch/reader/create_pdf.aspx?file_no=CCTA140519&flag=1&journal_id=cta_cn&year_id=2015
在具體工程項目中,由於TensorFlow/Keras並沒提供原生的代價敏感函數,咱們能夠經過繼承和重寫原有的損失函數的方式,對原始的經典損失函數進行改造(函數內/函數外)
# 方式一 def vae_loss(x, x_decoded_mean): xent_loss = objectives.binary_crossentropy(x, x_decoded_mean) kl_loss = - 0.5 * K.mean(1 + z_log_sigma - K.square(z_mean) - K.exp(z_log_sigma), axis=-1) return xent_loss + kl_loss vae.compile(optimizer='rmsprop', loss=vae_loss)
Relevant Link:
https://stackoverflow.com/questions/45961428/make-a-custom-loss-function-in-keras https://blog.csdn.net/A_a_ron/article/details/79050204 https://blog.csdn.net/xiaojiajia007/article/details/73274669