深層神經網絡——過擬合問題

損失函數是用於優化訓練數據。然而真實的應用中想要的並不是讓模型儘量模擬訓練數據的行爲,而是希望通過訓練出來的模型對未知的數據給予判斷。模型在訓練數據上的表現並不一定代表了它在未知數據上的表現。 過擬合就是導致這個差距的重要因素,所謂過擬合就是當一個模型郭偉複雜之後,它可以很好的「記憶」每一個訓練數據中隨機噪音的部分而忘記了要去「學習」訓練數據中的通用趨勢。 比較極端的例子就是,當模型中的參數比訓練
相關文章
相關標籤/搜索