AI安全---對抗攻擊防禦措施

目前,在對抗攻擊防禦上存在三個主要方向: 1)在學習過程中修改訓練過程或者修改的輸入樣本。 2)修改網絡,比如:添加更多層/子網絡、改變損失/激活函數等。 3)當分類未見過的樣本時,用外部模型作爲附加網絡。 1.改訓練過程/ 輸入數據 1 蠻力對抗訓練 通過不斷輸入新類型的對抗樣本並執行對抗訓練,從而不斷提升網絡的魯棒性。爲了保證有效性,該方法需要使用高強度的對抗樣本,並且網絡架構要有充足的表達能
相關文章
相關標籤/搜索