深究機器學習的軟肋:難以防範的對抗攻擊,讓機器產生了幻覺

本文來自AI新媒體量子位(QbitAI) 對抗範例(adversarial examples),是攻擊者爲了讓機器學習模型產生錯誤而設計的輸入數據,就像「機器產生了幻覺」。在這篇文章中,我們將展示對抗範例瞭如何通過不同媒介進行攻擊,並討論保護系統免受這種攻擊難在何處。 在OpenAI,我們認爲對抗範例是安全領域一個值得研究的方面,因爲它們代表人工智能安全領域短期內能夠處理的一個具體問題,而解決它是
相關文章
相關標籤/搜索