對抗樣本文章筆記(三)

論文筆記–Universal Adversarial Perturbations 目標: 得到一些通用擾動,這些擾動不是針對某一樣本的,而是可以對整個服從同一分佈的數據集中的大部分樣本進行干擾,使它們發生誤分類。 一、引入 已經有大量研究表明,在很多情況下,給圖片加一點小的擾動就會使分類器產生錯誤分類,這使得系統安全性下降,容易受到外部攻擊。目前產生對抗樣本的方法主要有優化、梯度上升、搜索等,這些
相關文章
相關標籤/搜索