深度學習——dropout

Dropout是指在模型訓練時隨機讓網絡某些隱含層節點的權重暫時不工做,不工做的那些節點能夠臨時認爲不是網絡結構的一部分,可是它的權重得保留下來,暫時不更新,由於下一輪迭代 的時候它可能又得工做了。 網絡 Hinton等人在《Dropout: a simple way to prevent neural networks from overfitting》一文中提出在神經網絡訓練過程當中,能夠經過
相關文章
相關標籤/搜索