淺談對dropout的理解

當數據太少時,模型泛化性太弱,線性太強,這是我們就需要使用一些隨機函數來幫助我們隨機打亂數據之間映射和計算,如此往復,給模型人爲製作出多種情況,以原有數據人爲製作出大量'數據',從而克服數據量少的缺點,上圖: 讓數組中每一個數據參與運算之前都去隨機函數那裏‘算一卦’,以隨機數大小來決定此次運算(神經元與神經元之間映射)是不是要進行,從概率來講,若取判斷值爲0.4,則一定有大約40%數據被淘汰出局,
相關文章
相關標籤/搜索