深度學習筆記(2):1.6 dropout正則化 | 1.7 why dose drop-out work?

1.6   dropout正則化 dropout又稱隨機失活,它是通過給定概率隨機失活一些節點,讓網絡更加簡單。 下面介紹一個最常用的方法:‘inverted dropout’ (反向隨機失活) 假設我們有一個三層的神經網絡,每一層節點keep的概率是0.8,而失活的概率是0.2。 該怎麼操作呢? 想法是按照保留概率,生成一個對應維度的0-1矩陣,1代表這個節點被保留,而0表示這個節點被失活。 如
相關文章
相關標籤/搜索