Wide Residual Networks論文記錄

簡介 隨着深度神經網絡的不斷髮展,網絡的層數也在不斷加深,每提高一個百分點精度是一小部分都要花費幾乎兩倍的層數,較深層的網絡模型中只有部分模塊具有很好的表徵能力,非常深的剩餘網絡會減少特徵重用,使得網絡訓練的特別慢。所以對ResNet塊進行了研究,提出了減小殘差網絡的深度,增大殘差網絡的寬度的新結構(WRN寬剩餘網絡)。深度網絡具有優越性,然而會在訓練中存在一些看你,比如爆炸/梯度消失和退化。後續
相關文章
相關標籤/搜索