CNN: 1x1卷積層的精妙之處

現在各種神經網絡都會用到1x1 conv,它到底起到什麼作用呢?要回答這個問題,先從最經典的Inception模型說起,Figure 1是Inception-ResNet-v2的block架構圖。 作用一:改變矩陣維度 block中每個sublayer的第一層都1x1 conv,它在這裏的作用之一是降維,減少運算量–feature map channel數越少,卷積操作需要的計算量越小。但就像圖像
相關文章
相關標籤/搜索