Alexnet 筆記

整體網絡結構:5層conv + 3層全連接,池化層使用的是最大池化; relu優勢:收斂快,學習速度快 pooling層有重疊:步長小於卷積核大小,爲了克服過擬合,因爲這樣池化層的輸出之間有重疊,提升特徵的豐富性; 數據擴增: dropout:削弱聯合適應性,即防止整個網絡會對部分節點過度依賴,這樣有助於防止過擬合; 關於top-1 top-5的概念: top-1:選擇預測結果中置信度最高的lab
相關文章
相關標籤/搜索