終於搞懂Dropout了

在深度學習中,如果模型太複雜則會產生過擬合現象。 一種常用的防止過擬合的方法是正則化,通過在成本函數中添加正則項來起到懲罰參數的作用,不熟悉正則化的小夥伴可以看我之前發佈的文章:一文搞定正則化(作用,方法,原理)。 而另一種常用的防止過擬合的方法就是:Drop out 在2012年,Hinton提出了Drop out的思想,它的原理是在前向傳播的時候,可以使某個神經元以概率p停止工作,達到一個泛化
相關文章
相關標籤/搜索