Explaining and Harnessing Adversarial Examples

Explaining and Harnessing Adversarial Examples 包括神經網絡在內的一些機器學習模型,始終對對抗性樣本進行錯誤分類–通過對數據集中的例子應用小的但有意的最壞情況下的擾動形成的輸入,這樣擾動的輸入導致模型以高置信度輸出一個錯誤的答案。早期解釋這種現象的嘗試集中在非線性和過擬合上.我們反而認爲,神經網絡對對抗性擾動的脆弱性的主要原因是它們的線性性質。這種解釋
相關文章
相關標籤/搜索