機器學習對抗性攻擊

隨着人工智能和機器學習技術在互聯網的各個領域的廣泛應用,其受攻擊的可能性,以及其是否具備強抗打擊能力一直是安全界一直關注的。之前關於機器學習模型攻擊的探討常常侷限於對訓練數據的污染。由於其模型經常趨向於封閉式的部署,該手段在真實的情況中並不實際可行。在GeekPwn2016硅谷分會場上,來自北美工業界和學術界的頂尖安全專家們針對當前流行的圖形對象識別、語音識別的場景,爲大家揭示瞭如何通過構造對抗性
相關文章
相關標籤/搜索