增強模型表示方法-dropout

增強模型表示方法-dropout Dropout 的原理爲:在每個迭代過程中,隨機選擇某些神經元,並且刪除它們在⽹絡中的前向和後向連接,相當於是 「去掉」 這些神經元。如圖 6.5所⽰,在每批樣本訓練時,將原始⽹絡中部分隱藏層單元 「去掉」。當然,Dropout 並不意味着這些神經元永遠的消失了,在下⼀批數據迭代前,我們會把⽹絡恢復成最初的全連接⽹絡,然後再⽤隨機的⽅法去掉部分隱藏層的神經元,接着
相關文章
相關標籤/搜索