【論文閱讀】mixup: BEYOND EMPIRICAL RISK MINIMIZATION

mixup: BEYOND EMPIRICAL RISK MINIMIZATION 作者Hongyi Zhang,本科北大,發這篇文章的時候是MIT的博士五年級學生。這篇文章是和FAIR的人一起合作的。 Introduction 摘要中,本文提到了mixup方法可以讓神經網絡傾向於訓練成簡單的線性關係。從而降低模型的過擬合現象。 實際上,現在的神經網絡規模通常是和數據集規模成正比的。訓練神經網絡時
相關文章
相關標籤/搜索