AlexNet論文總結與代碼實現

AlexNet包含6千萬個參數和65萬個神經元,包含了5個卷積層,其中有幾層後面跟着最大池化(max-pooling)層,以及3個全鏈接層,最後還有一個1000路的softmax層。爲了加快訓練速度,AlexNet使用了Relu非線性激活函數以及一種高效的基於GPU的卷積運算方法。爲了減小全鏈接層的過擬合,AlexNet採用了最新的正則化方法「dropout」,該方法被證實很是有效。git 總結一
相關文章
相關標籤/搜索