AlexNet卷積神經網絡實現

AlexNet特點 使用ReLU作爲激活函數,解決了sigmoid在網絡較深時的梯度彌散問題 使用Dropout隨機忽略一部分神經元,以避免過擬合 使用重疊的maxpool,避免argpool的模糊化效果 提出LRN層,對局部神經元的活動創建競爭機制,使其中響應比較大的值變得相對更大,並抑制其它反饋較小的神經元,增強模型的泛化能力 GTX 580*2 3GB 數據增強:隨機從256256的原始圖像
相關文章
相關標籤/搜索