Adversarial Examples 對抗樣本

定義 深度模型具有良好的泛化能力同時,也具有極高脆弱性。以分類爲例:只需要通過故意添加細微的干擾所形成的輸入樣本(對抗樣本),模型以高置信度給出了一個錯誤的輸出。當然這問題不僅出現在深度模型中,在其他機器學習模型也存在。「對抗樣本」是安全方面非常好的一個議題,因爲它代表了AI安全領域裏的一種具體的問題。 如上樣本x的label爲熊貓,在對x添加部分干擾後,在人眼中仍然分爲熊貓,但對深度模型,卻將其
相關文章
相關標籤/搜索