ALexNet與VGG16初學總結

ALexNet與VGG16初學總結 - Alexnet - VGG16 - Alexnet (一)創新點: 1.成功使用ReLU作爲CNN的激活函數,並驗證其效果在較深的網絡超過了Sigmoid,成功解決了Sigmoid在網絡較深時的梯度彌散問題。2.訓練時使用Dropout隨機忽略一部分神經元,以避免模型過擬合。3.在CNN中使用重疊的最大池化。此前CNN中普遍使用平均池化,AlexNet全部使
相關文章
相關標籤/搜索