TensorFlow-深度學習-10-DropOut與多層神經網絡

對於簡單的3層人工神經網絡,常用的激活函數很容易達到飽和度,比如sigmod,因爲它很容易達到一個飽和度,導致整個訓練終止。我之前在三層人工神經網絡上加了一層,變成4層,然後進行訓練,但是發現,訓練的結果並沒有什麼變化,這是因爲4層人工神經網絡可能已經存在了過擬合的現象。 其實經過大量研究人員的研究發現,三層神經網絡其實已經能夠滿足比較大的數據量的訓練,再增加其實已經沒有什麼意義了。所以要增加隱藏
相關文章
相關標籤/搜索