MobileNetV2筆記:linear bottleneck與Inverted residuals

先講Inverted residuals 就是普通卷積變爲Depthwise Convolution+Pointwise Convolution,並且在前面增加一個1*1卷積升維,當然在做Pointwise Convolution的時候也會做相應降維 並且加了一個residuals的shortcut,這樣就可以更多地疊加模塊增加網絡深度 爲什麼這麼做? =》DW+PW的卷積減少了參數量,但會損失特
相關文章
相關標籤/搜索