深度學習模型在訓練時候使用dropout爲何在測試時候不使用dropout?

深度學習模型在訓練時候使用dropout爲何在測試時候不使用dropout? 深度學習模型訓練時候使用dropout實際上只是讓部分神經元在當前訓練批次以一定的概率不參與更新,這樣使得每一輪迭代獲得的模型都是不一樣的。這個過程一定程度上保持了不同模型之間最優參數設置,使得訓練出的每一個模型不至於太差。在預測時候,不使用dropout,但會在權重上都乘上保留概率。最終的輸出可以被認爲是Bagging
相關文章
相關標籤/搜索