OpenAI詳細解析:攻擊者是如何使用「對抗樣本」攻擊機器學習的

原文來源:OpenAI 作者: Ian Goodfellow、Nicolas Papernot、Sandy Huang、Yan Duan、Pieter Abbeel、Jack Clark. 「雷克世界」編譯:嗯~是阿童木呀、EVA 導語:一般來說,對抗樣本(adversarial examples)是機器學習模型的輸入,攻擊者故意設計它們以引起模型出錯;它們就像是機器的視覺錯覺。這篇文章中,將展示
相關文章
相關標籤/搜索