Batch Normalization和Dropout如何搭配使用?

Batch Normalization和Dropout如何搭配使用? 背景 分析 解決方案 參考資料 背景 衆所周知,在Batch Normalization(BN)出來之前,dropout是訓練神經網絡時的標配,如果你的數據不夠多,那麼模型很容易過擬合,導致模型的性能下降。Dropout在很多任務上證明了自己的有效性,比如圖片分類,語音識別,目標檢索等等。但是在BN提出之後,dropout突然失
相關文章
相關標籤/搜索