文章轉自:同做者我的微信公衆號【機器學習煉丹術】。歡迎交流溝通,共同進步,做者微信:cyx645016617微信
這篇文章的最大特點天然是提出了DRN,Dilated Residual Networks,在殘差網絡的基礎上加入了膨脹卷積。網絡
膨脹卷積,又叫作空洞卷積,是在卷積核參數不變的基礎上,增長視野域的一種手段。經過使用膨脹卷積,能夠放大最深層特徵圖的尺寸而且保持視野域大小不變,說白了就是少了幾個池化層,而後用膨脹卷積維持一樣大小的視野域。比方說,resnet衆所周知,包括stem中的下采樣和4個layer的下采樣,5次下采樣,總體的步長爲32;可是DRN中,總體步長僅爲8。機器學習
固然文章若是僅僅是把碰撞卷積代替通常卷積,那麼這篇文章就毫無特點了。碰撞卷積會引出一個degridding效應,如何解決這個問題纔是文章的核心。ide
再加上一句,雖然模型的參數沒有改變,可是由於增長了特徵圖的尺寸,計算量和內存消耗必然有增長,請你們仁者見仁。學習
這個長話短說,直接看圖:
3d
dilation是一個參數,若是是1的話,就是上圖左圖的常規卷積核,若是dilation是2的畫,就變成右邊的膨脹卷積的樣子。dilation表示卷積核中參數相鄰的距離。blog
先來看Resnet的結構圖:
圖片
輸入的圖片是224x224大小的,第一次下采樣在stem中(圖中的conv1),隨後的下采樣在每一層layer的第一個卷積層前面。內存
DRN結構沒有了resnet最後的兩次下采樣,也就是說,特徵圖在28x28的大小以後就再也不變小了。再也不減少特徵圖尺寸,那麼就要增長卷積核的膨脹係數get
上圖中展現的是後兩次下采樣的resnet和DRN的區別,能夠看到,DRN沒有後兩次下采樣,所以特徵圖的尺寸都相同。
使用膨脹卷積來代替下采樣,會產生degriding柵格化問題
這種狀況產生的緣由在原文中有這樣的一句解釋:
Gridding artifacts occur when a feature map has higher-frequency content than the sampling rate of the dilated convolution.
就是說,當一某一個特徵的重要性超過採樣率。做者給出了這樣的一個例子:
上面圖(a)是一個單個像素異常重要的特徵圖,而後通過一個膨脹卷積,變成(c),變成網格狀的輸出。能夠說gridding artifiacts是膨脹卷積性質產生的現象。
爲了解決這樣的問題,做者對DRN做出了改進:
所以在上面的展現圖匯中,DRN-C的輸出的語義分割效果圖,很是絲滑。
效果有很是大的提升。這個不下降特徵圖的尺寸,從而提升了小物體的目標檢測的效果。值得嘗試。
這個也挺好實現的,咱們記住: