爲什麼卷積神經網絡中一般用奇數的卷積核

今天看到一篇比較有意思的文章,也解開了我一直一個疑問:爲什麼現在卷積神經網絡中卷積核都是奇數的。比如3×3,5×5,7×7. 3×3的卷積核也是在VGG證明了用兩個可以代替一個7*7效果更好,且參數還更少。那麼爲什麼沒有人用兩個2×2的卷積核代替3×3的卷積核,或者就是直接用2×2的卷積代替3×3呢? 今天看到的文章,Convolution with even-sized kernels and
相關文章
相關標籤/搜索