什麼是對抗樣本、對抗攻擊(詳解)

1.對抗樣本 所謂對抗樣本就是指:在原始樣本添加一些人眼無法察覺的擾動(這樣的擾動不會影響人類的識別,但是卻很容易愚弄模型),致使機器做出錯誤的判斷。 如下所示,這兩張圖片添加噪聲(或者說擾動之後)被誤分類。   2.對抗攻擊 由於機器學習算法的輸入形式是一種數值型向量(numeric vectors),所以攻擊者就會通過設計一種有針對性的數值型向量從而讓機器學習模型做出誤判,這便被稱爲對抗性攻擊
相關文章
相關標籤/搜索