對抗樣本論文學習:Deep Neural Networks are Easily Fooled

近日看了一些對抗樣本(adversarial examples)方面的論文,在這裏對這些論文進行一下整理和總結。 以下僅代表個人理解,本人能力有限難免有錯,還請大家給予糾正,不勝感激。歡迎一起討論進步。 對抗樣本(adversarial examples)和對抗學習(GAN)截然不同,這一概念在Szegedy et al. (2014b)中提出:對輸入樣本故意添加一些人無法察覺的細微的干擾,導致模
相關文章
相關標籤/搜索