關於Adversarial Attack 進攻方的綜述

1. 對抗攻擊的概念 ML算法的輸入形式爲數值型向量,攻擊者可以設計一種針對性的擾動生成對抗樣本,   讓機器學習模型出現誤判,稱爲對抗性攻擊;對抗性攻擊分爲兩種: 黑盒攻擊(blck-box attack)        黑盒攻擊的攻擊者不知道機器學習的算法和參數,攻擊者產生對抗性數據(adversarial permutation)的過程中可以與機器學習        系統有所交互。 白盒攻擊
相關文章
相關標籤/搜索