Virtual Adversarial Training: A Regularization Method for Supervised and Semi-Supervised Learning

arxiv鏈接 前言 有時候, 輸入數據加入細微的擾動, 都會讓模型結果大相徑庭. 因此, 我們總是希望訓練結果的分佈是光滑的, 這樣才能保持穩定. 但在連續分佈的空間中, 總是存在過大的間隙, 這些間隙只能靠更多的數據或減小網絡複雜度(正則)的方法讓它儘可能光滑. VAT同樣是爲了解決光滑問題, 且解釋性更強, 也更直觀. 我只讀了文章前4頁, 做個大概瞭解. 思路 一個圖片是N維中的一個點P,
相關文章
相關標籤/搜索