ResNet閱讀

文章在一開始就說明了resnet提出的原因: 梯度爆炸/消失問題(這篇博客講的很好) 退化問題(隨着網絡深度增加,準確率達到飽和,然後迅速下降) 爲了解決這些問題,作者考慮了vgg以及inception網絡的優劣,進行了以下思考: 1、但是如果所增加的層都是一樣的,都是淺層模型的複製,那麼深度的模型不應該產生更高的訓練誤差,但是這樣的方法很難實現。 2、deep residual learning
相關文章
相關標籤/搜索