AI安全---對抗攻擊防護措施

目前,在對抗攻擊防護上存在三個主要方向: 1)在學習過程當中修改訓練過程或者修改的輸入樣本。 2)修改網絡,好比:添加更多層/子網絡、改變損失/激活函數等。 3)當分類未見過的樣本時,用外部模型做爲附加網絡。 算法 1.改訓練過程/ 輸入數據 1 蠻力對抗訓練網絡 經過不斷輸入新類型的對抗樣本並執行對抗訓練,從而不斷提高網絡的魯棒性。爲了保證有效性,該方法須要使用高強度的對抗樣本,而且網絡架構要有
相關文章
相關標籤/搜索