Mixup:Beyond Empirical Risk Minimization

  Abstract 大規模神經網絡功能很強大,但是顯現出了不如預期的一些表現,例如對攻擊樣本的記憶力與敏感度。本文中,我們提出了一種緩解issues的學習原則稱爲mixup。總的來說,mixup通過對樣本對及標籤進行凸融合來訓練深度神經網絡。這樣使得神經網絡在訓練任務調整成爲它最擅長的簡單線性學習。我們在ImageNet-2012,CIFAR-10,CIFAR-100,Google commad
相關文章
相關標籤/搜索