卷積神經網絡中的1*1卷積

我們都知道,卷積核的作用在於特徵的抽取,越是大的卷積核尺寸就意味着更大的感受野,當然隨之而來的是更多的參數。早在1998年,LeCun大神發佈的LetNet-5模型中就會出,圖像空域內具有局部相關性,卷積的過程是對局部相關性的一種抽取。  但是在學習卷積神經網絡的過程中,我們常常會看到一股清流般的存在—1*1的卷積! 比如在殘差網絡的直連裏:  殘差網絡的Bootleneck殘差模塊裏:  在Go
相關文章
相關標籤/搜索