對抗樣本簡介

一、什麼是對抗樣本   對抗樣本是一類被惡意設計來攻擊機器學習模型的樣本。它們與真實樣本的區別幾乎無法用肉眼分辨,但是卻會導致模型進行錯誤的判斷。對抗樣本的存在會使得深度學習在安全敏感性領域的應用收到威脅。   如下圖所示,通過在自然圖片上加入一些人工噪聲來「欺騙」神經網絡,使得神經網絡輸出錯誤的預測結果。   以經典的二分類問題爲例,機器學習模型通過在樣本上訓練,學習出一個分割平面,在分割平面的
相關文章
相關標籤/搜索