從傅里葉分析角度解讀深度學習的泛化能力

  深度學習成功地應用在很多領域,但對它的理論理解卻非常缺乏。這兩年,很多理論學家把關注點放在一個關於深度學習與傳統學習理論的悖論上。在傳統學習理論中,模型的參數越多,模型一般會更好地擬合訓練數據,但模型的泛化能力(擬合測試數據集的能力)會變差。在深度學習中,參數的數目比訓練數據集要大得多,但深度網絡(DNN)卻通常既能擬合好訓練數據,又保持良好的泛化能力。這個違反直覺的現象被大家稱爲「明顯悖論」
相關文章
相關標籤/搜索