Adversarial Examples 對抗樣本

定義 深度模型具備良好的泛化能力同時,也具備極高脆弱性。以分類爲例:只須要經過故意添加細微的干擾所造成的輸入樣本(對抗樣本),模型以高置信度給出了一個錯誤的輸出。固然這問題不只出如今深度模型中,在其餘機器學習模型也存在。「對抗樣本」是安全方面很是好的一個議題,由於它表明了AI安全領域裏的一種具體的問題。 如上樣本x的label爲熊貓,在對x添加部分干擾後,在人眼中仍然分爲熊貓,但對深度模型,卻將其
相關文章
相關標籤/搜索