Deep learning II - I Practical aspects of deep learning - Dropout regularization 隨機失活正則化

Dropout regularization 隨機失活正則化 在訓練神經網絡時,隨機在每層選擇一定數量的neuron關閉,從而達到減小過擬合的目的。看起來很瘋狂,但是很有效。 1. 對應每一層生成以個mask d[3] d [ 3 ] 2. 用mask與該層的neurons a[3] a [ 3 ] 覆蓋,dropout一些neuron 3. 剩餘的neurons除以keep-prob,從而保持該
相關文章
相關標籤/搜索