Explaining and Harnessing Adversarial Examples 論文閱讀

Explaining and Harnessing Adversarial Examples 注:研究不深,純個人理解,可能有誤,希望批評指正 1論文簡介: Szegedy提出有幾種機器學習的模型容易受到對抗樣本的攻擊。在訓練數據的不同子集上訓練的具有不同體系結構的模型會誤分類同一對抗樣本。這表明對抗樣本暴露了我們訓練算法中的基本盲點。 爲什麼?: 猜想:由於深度神經網絡的極端非線性所致,極端非線
相關文章
相關標籤/搜索