WRN[論文筆記]

論文: Wide Residual Networks 論文地址 簡介 隨着模型深度的加深,梯度反向傳播時,並不能保證能夠流經每一個殘差模塊的權值,以至於它很難學到東西.訓練十分深的殘差網絡仍會有特徵重用消失的問題,訓練速度會減慢. wide residual networks (WRNs)減少深度,但是增加了殘差塊的寬度.作者希望使用一種較淺的,但是寬度更寬的模型,來更加有效的提升模型的性能. 說
相關文章
相關標籤/搜索