The First Column | The Second Column |
---|---|
Dilated Convolutions | 翻譯爲擴張卷積或空洞卷積 |
atrous convolution 帶洞卷積 |
![]() |
standard convolution | ![]() |
upsampling | 將變小的圖像恢復到原始大小 |
dilated convolution 帶洞卷積減小了核的大小, 能夠達到節省內存的做用。 並且帶洞卷積的有效性基於一個假設: 緊密相鄰的像素幾乎相同,所有歸入屬於冗餘, 不如跳H(hole size)個取一個。 |
![]() |
DenseNet Dense Block模塊,其中層數爲5, 即具備5個BN+Relu+Conv(3*3)這樣的layer, 網絡增加率爲4,簡單的說就是每個layer輸出的 feature map的維度爲4。 |
![]() |
DenseNet-BC的網絡結構參數 其中網絡增加率K=32, conv 表明BN-ReLU-Conv |
![]() |
DenseNet在ImageNet上 DenseNet-BC和ResNet對比 |
![]() |
在空洞卷積中有個重要的參數叫rate, 這個參數表明了空洞的大小。 |
![]() |
當rate =1, 能夠把紅色的點想象成在原圖上 的採樣點就是原圖不丟失任何信息採樣 如圖(a) |
![]() |
當rate=2, 能夠把紅色的點想象成在原圖上 的採樣點就是在原圖上每隔一(rate-1)個像素採樣, 如圖b, 而後將採樣後的圖像與kernel作卷積, 這樣作其實變相增大了感覺野。 |
![]() |
當rate=4, 能夠把紅色的點想象成在原圖上 的採樣點 如圖(C) |
![]() |
DeepLab V3 第一種延伸架構Going Deeper(Cascaded Module) |
![]() |
Output Stride=16 | 表示本來圖片是feature map的16倍大 |
複製Resnet中最後一個Convolution Block (Block 4), 並連續接在後端(圖中的Block 5 + 6 + 7), 以取得更多multi -scale cascade context。 這裏爲了維持相同的feature map大小 在後面的block上所使用的 Atrous Rate須要以指數成長。 |
![]() |
DeepLab V3 第二種延伸架構ASPP(Parallel Module) |
![]() |
DeepLab V3 第二種延伸架構ASPP(Parallel Module) 在最後的feature map上, 接上平行的Convolution Block, 每個Block取用不一樣rate的Atrous Convolution, 最後將全部的資訊合併起來再作預測。 ASPP在本來的DeepLab就已經被提出了, 可是這邊做者另外在ASPP後 接上了Batch Normalization, 另外加入了 前面Image Feature Map一塊兒合併 作Global Average Pooling , 實驗也證實這樣的小技巧是有效的 |
![]() |
upsample意思爲上採樣, 簡單來講就是pooling的逆過程, 因此pooling也就是下采樣, 採樣後數據數量減小 |
![]() |
下面解釋FCN中是如何 實現upsample,FCN做者分爲 FCN-32s,FCN-16s,FCN-8s三種 |
![]() |
image是原圖像, conv1,conv2..,conv5爲卷積操做, pool1,pool2,..pool5爲pool操做 (pool就是使得圖片變爲原圖的1/2), 注意con6-7是最後的卷積層, 最右邊一列是upsample後 的end to end結果。 必須說明的是圖中nx是指對應的 特徵圖上採樣n倍(即變大n倍), 並非指有n個特徵圖, 如32x upsampled 中的32x 是圖像只變大32倍, 不是有32個上採樣圖像, 又如2x conv7是 指conv7的特徵圖變大2倍。 |
![]() |