Patch Normalization Regularization

貢獻: 提出了一種新的正則化方法,減少過擬合的發生,同時讓神經網絡具有更好的魯棒性。 這種方法在圖像和feature map 內部進行局部的permutation (置換),沒改變整體的特徵信息,又添加了新的變化(variance),用於訓練中,提高了模型的魯棒性,防止過擬合的發生 過擬合 過擬合的定義:訓練的模型適應了噪聲信息,而不是去捕捉數據中隱藏的變量信息。 過擬合出現原因: 1.參數過少,
相關文章
相關標籤/搜索