深度學習---對抗樣本生成

對抗樣本攻擊:在深度學習神經網絡(DNN)輸入較小的干擾因素會使DNN出現誤判,這種攻擊被稱爲是對抗樣本攻擊 對抗樣本:是指在正常樣本中有目的性地添加的一些干擾因素,使得DNN出現誤判 舉例說明對抗樣本分析帶來的影響: 1、通過更改路標信息,使得車輛的DNN系統將左轉識別爲右轉 2、在激烈的商業競爭環境下,對抗樣本攻擊導致惡性競爭 對抗樣本分析分類: 1、白盒:白盒情景下攻擊者對模型完全掌握,包括
相關文章
相關標籤/搜索