TensorFlow學習 max-pooling和average-pooling之間的異同(待總結)

池化操作時在卷積神經網絡中經常採用過的一個基本操作,一般在卷積層後面都會接一個池化操作,但是近些年比較主流的ImageNet上的分類算法模型都是使用的max-pooling,很少使用average-pooling,這對我們平時設計模型時確實有比較重要的參考作用,但是原因在哪裏呢? 通常來講,max-pooling的效果更好,雖然max-pooling和average-pooling都對數據做了下采
相關文章
相關標籤/搜索