對抗樣本(對抗攻擊)入門

什麼是對抗樣本? 從2013年開始,深度學習模型在多種應用上已經能達到甚至超過人類水平,比如人臉識別,物體識別,手寫文字識別等等。 在之前,機器在這些項目的準確率很低,如果機器識別出錯了,沒人會覺得奇怪。但是現在,深度學習算法的效果好了起來,去研究算法犯的那些不尋常的錯誤變得有價值起來。其中一種錯誤叫對抗樣本(adversarial examples)。 對抗樣本(Adversarial exam
相關文章
相關標籤/搜索