Alexnet-論文解讀

摘要 1. 加快訓練 不飽和神經元 ReLU GPU 2. 減少過擬合 dropout 一、 引言 二、 數據集預處理 1. Top5 錯誤率: 正確結果不在預測的前5個標籤的百分比 2. 圖片大小不一致 : 最短的邊縮放爲255,然後剪裁成255*255大小 三、 網絡結構 1. ReLU 非飽和比飽和的快 2. 多GPU 3. LRN:局部響應歸一化 4. overlapping poolin
相關文章
相關標籤/搜索