經典CNN之:AlexNet介紹

1. AlexNet模型的特點 使用了非線性激活函數:ReLU 防止過擬合的方法:Dropout,數據擴充(Data augmentation) 其他:多GPU實現,LRN歸一化層的使用 1.1 使用ReLU激活函數 傳統的神經網絡普遍使用Sigmoid或者tanh等非線性函數作爲激勵函數,然而它們容易出現梯度彌散或梯度飽和的情況。 在AlexNet中,使用了ReLU (Rectified Lin
相關文章
相關標籤/搜索