[paper]Practical Black-Box Attacks against Machine Learning

本文提出了對抗樣本的黑盒攻擊策略,也就是在沒有分類訓練數據或模型知識的情況下生成對抗樣本。 即通過構建一個綜合數據集(通過收集目標分類器的輸入和輸出),以訓練目標模型的替代品(本地構建的相似的模型),實現對目標模型的攻擊。 三個關鍵屬性: (a)所需的功能僅限於觀察輸出類標籤 (b)查詢的標籤數量爲有限 (c)除了最新的DNN,該方法也適用於不同的ML分類器類型 黑盒攻擊策略: 訓練替代模型:攻擊
相關文章
相關標籤/搜索