攻和防誰更厲害?AI技術在惡意軟件檢測中的應用和對抗

AI技術的發展爲網絡安全帶來新機遇的同時,黑客也在逐漸利用AI漏洞創建對抗樣本以躲避攻擊,雙方在各自領域的更多嘗試也將是AI技術發展的一場新博弈。那麼,在應用中,如何利用AI檢測技術與惡意軟件展開對抗?算法

騰訊安全技術專家王佳斌爲您帶來分享解讀。編程

AI檢測的背景

上世紀50、60年代,早期的人工智能技術已出現,70年代到80年代,機器學習技術已被你們認識和應用。到2010年後,深度學習技術已被普遍應用在各大領域,安全領域也是其中之一。安全

傳統的檢測方式是人工定製的安全檢測方案,經過輸入的數據進行研判,進而獲得檢測結果。新的AI檢測方式是經過輸入數據和已知結果訓練模型,再由模型去作檢測。網絡

攻擊方視角

  • 從攻擊者的視角,如何運用AI安全檢測?

經過AI的方式選擇攻擊目標,釣魚是攻擊者普遍使用的攻擊方式。新的研究顯示經過AI技術對社交網絡信息的訓練,能夠找到一些容易被攻擊的對象。機器學習

早期的釣魚方式包括短信、詐騙電話等,發展至今攻擊方升級爲經過AI技術採集相關信息對社交網絡信息進行訓練。學習

數據調查顯示,廣撒網式的釣魚方式成功率僅爲15%,新的訓練技術成功率可提高30%及以上。測試

  • 從攻擊方的視角,如何對抗安全防禦?

在惡意應用和惡意軟件檢測的過程當中,黑產分發病毒除了會分發大量的惡意應用外,也會摻雜一些正常的應用。若是用這些數據去訓練模型,模型研判會有很高的誤判率,由此便會出現訓練數據的污染。優化

  • 從攻擊方的視角,如何對研判數據進行修改和干擾?

對研判數據進行修改和干擾主要表現爲在數據傳入時繞過AI檢測對數據作出變化。之中涉及到幾種模型測試類別,便可直接拿到模型的白盒測試和不能直接拿到模型的黑盒測試,其中黑盒測試更接近於安全領域對抗過程。人工智能

目前已有的遺傳編程算法對於惡意攻擊首先可根據結構化字段作隨機化操做獲得一個子羣,通過分類器研判並作迭代測試找到變種子集再從新訓練。經過遺傳演算從新找到變種子羣,再用分類器研判。這種遞歸方式對於找到逃過AI檢測樣本有較大幫助。加密

防護方視角

AI已普遍應用於安全檢測技術中,從防護者的視角來看,傳統經典的檢測方式還須要持續檢測和優化。AI是對傳統檢測方式的補充,但不是一種替代,對此,王佳斌提出了幾點建議:

第一, 傳統的檢測方式和AI的檢測方式能夠造成疊加的效應,防止被單點突破。

第二,傳統檢測方式提供的檢測結果可爲AI模型訓練提供不錯的數據源。對於模型自身的魯棒性,要引入一些提高魯棒性的方法,包括主動將對抗樣本引入到訓練集裏造成對抗性訓練,防護性的增流等。

第三,對於傳統經典的檢測方案要持續檢測,訓練數據要進行很好的清洗和提純,足夠有表徵意義和純淨的訓練數據才能將AI訓練的更好。在此基礎上還要保證模型的安全性和加密性,模型自己須要創建多種疊加效果,引入專家系統並作兜底策略。

現在,黑客正在愈來愈多的利用AI漏洞構建「對抗樣本」進行躲避攻擊,除了上述的防護方式,更多的AI攻擊應對方法還在探索之中。對於AI在惡意軟件檢測中的應用和對抗解讀,開發者以爲有哪些值得借鑑和能夠改進的地方呢?歡迎留言說出您的見解~

本文首發於安卓綠色聯盟公衆號。

相關文章
相關標籤/搜索