Kaiming He_etc -Deep Residual Learning for Image Recognition-CVPR整理

1.   Abstract 從2012年的AlexNet 開始,cnn 發展迅速 從AlexNet 到ResNet  模型層數不斷加深。網絡層數越深,網絡的表達能力就越強。 AlexNet VGG GoogleNet ResNet 7 16 22 152 在加深模型層數的時候,作者發現存在 退化現象需要解決 退化現象即 ,深層的網絡學習的效果反而不如淺層網絡的好,見下圖。 ResNet 於NN的對
相關文章
相關標籤/搜索