[論文筆記]INSTANCE ADAPTIVE ADVERSARIAL TRAINING: IMPROVED ACCURACY TRADEOFFS IN NEURAL NETS

研究背景 對抗訓練是目前最有效的提升深度學習模型魯棒性的方法。但問題在於對抗訓練後常常會伴隨着原始樣本分類正確率的下降,這是對抗訓練存在的一大問題。 主要貢獻 本文分析了對抗訓練導致原始樣本分類正確率下降的主要原因 本文提出了一種新的對抗訓練方法,在模型對抗魯棒性持平的情況下提升原始樣本的分類正確率 主要方法 1、對抗訓練對於原始樣本分類的影響 本文提出,目前所有的對抗訓練都是固定了噪聲大小,例如
相關文章
相關標籤/搜索