keras從入門到放棄(九)

上篇通過實例瞭解了過擬合,那如何處理將是本文處理的問題 Dropout抑制過擬合 在每一次訓練中,隨機丟棄一部分隱藏單元,從而加強另一部分單元的學習 原理 取平均的作用:先回到標準的模型沒有dropout,我們會用相同的訓練數據去訓練5個不同的神經網絡,一般會得到5個不同的結果,此時我們可以採用「5個結果取均值」或者「對數取勝的投票策略」去決定最懂結果 減少神經元之間的複雜的共適應關係:因爲dro
相關文章
相關標籤/搜索