深度學習總結五:AlexNet

深度學習總結五:AlexNet 成就 特色 結構 論文連接 代碼 成就 2012年ImageNet項目的大規模視覺識別挑戰(ILSVRC)冠軍。html 特色 使用ReLU函數代替sigmoid做爲激活函數,避免梯度消失。由於sigmoid函數趨近0或者1時,梯度趨近0,反向傳播時多個梯度相乘致使梯度消失。ReLU函數的導數爲常數。 使用dropout防止過擬合。 提出LRN(較少使用)。來自神經
相關文章
相關標籤/搜索