卷積神經網絡—AlexNet、VGG、GoogleNet、ResNet論文解讀

1、 CNN結構演化歷史的圖 2、 AlexNet網絡 2.1 ReLU 非線性激活函數 多GPU訓練(Training on Multiple GPUs) 局部響應歸一化(Local Response Normalization) 重疊池化(Overlapping Pooling) 2.2 下降過擬合( Reducing Overfitting) 數據加強(Data Augmentation)
相關文章
相關標籤/搜索