調參經驗網絡
視野域:2個3*3 = 1個5*5,由於,他們能夠看到的視野區域是同樣的ide
(5*5-2*3*3)/5*5
)多使用1*1的卷積核學習
1*1的卷積核至關於一次非線性變換。(當卷積核是1*1的時候,至關因而在作全鏈接,只不過這個全鏈接是縱向的,是在通道上的)優化
咱們能夠經過這種方式對通道進行降維的操做,即便得輸出通道的數目小於輸入通道的數目code
1*1的卷積核能夠在加多個這種操做的狀況下也不損失信息cdn
從11層遞增至19層的過程blog
每個版本都是在每一層的後面加一些卷積層,這是由於開始輸入的圖像比較大,計算比較耗時,不過通過兩個maxpooling以後,圖像就變的比較小了,這個時候多加幾個卷積層以後所耗的損失也沒有那麼大it
LRN 歸一化,已經快過期了io
基於VGGVet,咱們能夠配置出各類各樣的網絡機構,整體參數樣本也能夠保持不變class
訓練技巧
VGGNet是將網絡層次加深,可是加深到必定程度之後,再加深效果也不能提高效果了。ResNet就是解決了這樣一個問題,可讓網絡不停的加深,最多能夠加深到1000多層
加深層次的問題
模型深度達到某個程度後繼續加深會致使訓練集準確率降低
加深層次的問題解決
模型結構
Identity部分是恆等變化
這樣若是F(x)=0,也就是說F(x)沒有學到東西,那麼咱們能夠把他忽略掉,而保留恆等變換X,這樣至少可讓他和淺層的神經網絡持平
可是他的層次會更深,這樣一旦Fx確實學到了一些東西,那麼他就能夠繼續加強這個效果
F(x)是殘差學習,ResNet叫作殘差網絡,這是ResNet的一個基本原理
ResNet-34與ResNet-101使用的子結構(34,101表明層次)
下面是更多的層次結構的說明
方括號裏的是殘差子結構。通過卷積層以後沒有全鏈接層,由於沒有了全鏈接層,咱們就能夠將全鏈接層的參數分攤到卷積層,在這裏參數數目能夠必定程度上反映模型的容量,參數數目越多,就能夠學到更多的東西。
可是參數數目多會致使過擬合,爲了使得模型容量是必定的,咱們在這裏就弱化了全鏈接層,強化了卷積層
殘差結構使得網絡須要學習的知識變少,容易學習
殘差結構使得每一層的數據分佈接近,容易學習