Semantic Segmentation

Atrous convolution ,就是帶洞的卷積,卷積核是稀疏的
下 圖(b)是帶洞卷積,能夠跳着選,隔一個加一個。

The First Column The Second Column
Dilated Convolutions 翻譯爲擴張卷積或空洞卷積
atrous convolution
帶洞卷積
standard convolution
upsampling 將變小的圖像恢復到原始大小
dilated convolution
帶洞卷積減小了核的大小,
能夠達到節省內存的做用。
並且帶洞卷積的有效性基於一個假設:
緊密相鄰的像素幾乎相同,所有歸入屬於冗餘,
不如跳H(hole size)個取一個。
DenseNet
Dense Block模塊,其中層數爲5,
即具備5個BN+Relu+Conv(3*3)這樣的layer,
網絡增加率爲4,簡單的說就是每個layer輸出的
feature map的維度爲4。
DenseNet-BC的網絡結構參數
其中網絡增加率K=32,
conv 表明BN-ReLU-Conv
DenseNet在ImageNet上
DenseNet-BC和ResNet對比
在空洞卷積中有個重要的參數叫rate,
這個參數表明了空洞的大小。
當rate =1,
能夠把紅色的點想象成在原圖上
的採樣點就是原圖不丟失任何信息採樣
如圖(a)
當rate=2,
能夠把紅色的點想象成在原圖上
的採樣點就是在原圖上每隔一(rate-1)個像素採樣,
如圖b,
而後將採樣後的圖像與kernel作卷積,
這樣作其實變相增大了感覺野。
當rate=4,
能夠把紅色的點想象成在原圖上
的採樣點
如圖(C)
DeepLab V3
第一種延伸架構Going Deeper(Cascaded Module)
Output Stride=16 表示本來圖片是feature map的16倍大
複製Resnet中最後一個Convolution Block
(Block 4),
並連續接在後端(圖中的Block 5 + 6 + 7),
以取得更多multi -scale cascade context。
這裏爲了維持相同的feature map大小
在後面的block上所使用的
Atrous Rate須要以指數成長。
DeepLab V3
第二種延伸架構ASPP(Parallel Module)
DeepLab V3
第二種延伸架構ASPP(Parallel Module)
在最後的feature map上,
接上平行的Convolution Block,
每個Block取用不一樣rate的Atrous Convolution,
最後將全部的資訊合併起來再作預測。
ASPP在本來的DeepLab就已經被提出了,
可是這邊做者另外在ASPP後
接上了Batch Normalization,
另外加入了
前面Image Feature Map一塊兒合併
作Global Average Pooling ,
實驗也證實這樣的小技巧是有效的
upsample意思爲上採樣,
簡單來講就是pooling的逆過程,
因此pooling也就是下采樣,
採樣後數據數量減小
下面解釋FCN中是如何
實現upsample,FCN做者分爲
FCN-32s,FCN-16s,FCN-8s三種
image是原圖像,
conv1,conv2..,conv5爲卷積操做,
pool1,pool2,..pool5爲pool操做
(pool就是使得圖片變爲原圖的1/2),
注意con6-7是最後的卷積層,
最右邊一列是upsample後
的end to end結果。
必須說明的是圖中nx是指對應的
特徵圖上採樣n倍(即變大n倍),
並非指有n個特徵圖,
如32x upsampled 中的32x
是圖像只變大32倍,
不是有32個上採樣圖像,
又如2x conv7是
指conv7的特徵圖變大2倍。
相關文章
相關標籤/搜索