深度學習圖像分類(一)——AlexNet論文理解

0. 寫做目的 好記性不如爛筆頭。python 1. 論文理解 1.1 ReLU 激活函數的使用 Rectified Linear Units(ReLU)網絡 使用ReLU比使用tanh(或者sigmoid)激活函數收斂速度更快。下圖來自AlexNet論文中給出的在CIFAR-10上的測試效果。能夠看出ReLU收斂速度更快。app 1.2 多GPU訓練 只在特殊層進行GPU數據之間的交流。ide
相關文章
相關標籤/搜索