The same techniques for winning computer vision competitions, such as using multiple crops at test time, are widely used in practical deployments (or production system deployments) of ConvNets.
中文版源自:https://blog.csdn.net/u013733326/article/details/80166080
--------------------------------------------------------------------中文版---------------------------------------------------------------------
1. Question 1
在典型的卷積神經網絡中,隨着網絡的深度增長,你能看到的現象是?
-
【 】 nHnH 和 nWnW 增長,同時nCnC 減小。
-
【 】 nHnH 和 nWnW 減小,同時 nCnC 也減小。
-
【 】 nHnH 和 nWnW 增長,同時 nCnC 也增長。
-
【★
】 nHnH 和 nWnW 減小,同時 nCnC 增長。
2. Question 2
在典型的卷積神經網絡中,你能看到的是?
-
【★
】 多個卷積層後面跟着的是一個池化層。
-
【 】 多個池化層後面跟着的是一個卷積層。
-
【★
】 全鏈接層(FC)位於最後的幾層。
-
【 】 全鏈接層(FC)位於開始的幾層。
3. Question 3
爲了構建一個很是深的網絡,咱們常常在卷積層使用「valid」的填充,只使用池化層來縮小激活值的寬/高度,不然的話就會使得輸入迅速的變小。
博主注:咱們常常使用「SAME」的padding方式。
4. Question 4
咱們使用普通的網絡結構來訓練一個很深的網絡,要使得網絡適應一個很複雜的功能(好比增長層數),總會有更低的訓練偏差。
博主注:在沒有殘差的普通神經網絡中,理論上是偏差愈來愈低的,可是其實是隨着網絡層數的加深,先減少再增長;在有殘差的ResNet中,即便網絡再深,訓練偏差都會隨着網絡層數的加深逐漸減少。
5. Question 5
下面計算殘差(ResNet)塊的公式中,橫線上應該分別填什麼?
a[l+2]=g(W[l+2]g(W[l+1]al+b[l+1])+b[l+2]+?–––––– )+?––––––a[l+2]=g(W[l+2]g(W[l+1]al+b[l+1])+b[l+2]+?_ )+?_
博主注:推導一下公式就行了。
a[l+2]=g(z[l+2]+a[l])=g(W[l+2]×a[l+1]+b[l+2]+a[l])=g(W[l+2]×g(z[l+1])+b[l+2]+a[l])=g(W[l+2]×g(W[l+1]×a[l]+b[l+1])+b[l+2]+a[l]––––––––)+0––––––(1.0)(1.1)(1.2)(1.3)(1.0)a[l+2]=g(z[l+2]+a[l])(1.1)=g(W[l+2]×a[l+1]+b[l+2]+a[l])(1.2)=g(W[l+2]×g(z[l+1])+b[l+2]+a[l])(1.3)=g(W[l+2]×g(W[l+1]×a[l]+b[l+1])+b[l+2]+a[l]_)+0_
6. Question 6
關於殘差網絡下面哪一個(些)說法是正確的?
-
【 】 使用跳越鏈接可以對反向傳播的梯度降低有益且可以幫你對更深的網絡進行訓練。
-
【★
】 跳躍鏈接計算輸入的複雜的非線性函數以傳遞到網絡中的更深層。
-
【 】 有L層的殘差網絡一共有L2L2種跳躍鏈接的順序。
-
【★
】 跳躍鏈接可以使得網絡輕鬆地學習殘差塊類的輸入輸出間的身份映射。
博主注:請參考這裏
7. Question 7
假設你的輸入的維度爲64x64x16,單個1x1的卷積過濾器含有多少個參數(包括誤差)?
-
【 】 2
-
【★
】 17
-
【 】 4097
-
【 】 1
8. Question 8
假設你有一個維度爲nH×nW×nCnH×nW×nC的卷積輸入,下面哪一個說法是正確的(假設卷積層爲1x1,步伐爲1,padding爲0)?
-
【★
】 你可以使用1x1的卷積層來減小nCnC,可是不能減小 nHnH、nWnW
-
【★
】 你能夠使用池化層減小 nHnH、nWnW,可是不能減小 nCnC
-
【 】 你能夠使用一個1x1的卷積層來減小nHnH、nWnW和nCnC.
-
【 】 你能夠使用池化層減小 nHnH、 nWnW和nCnC.
9. Question 9
關於 Inception 網絡下面哪些說法是正確的
-
【 】 Inception 網絡包含了各類網絡的體系結構(相似於隨機刪除節點模式,它會在每一步中隨機選擇網絡的結構),所以它具備隨機刪除節點的正則化效應。
-
【★
】 Inception 塊一般使用1x1的卷積來減小輸入卷積的大小,而後再使用3x3和5x5的卷積。
-
【★
】 一個inception 塊容許網絡使用1x1, 3x3, 5x5 的和卷積個池化層的組合。
-
【 】 經過疊加inception塊的方式讓inception 網絡更深不會損害訓練集的表現。
10. Question 10
下面哪些是使用卷積網絡的開源實現(包含模型/權值)的常見緣由?
-
【 】 爲一個計算機視覺任務訓練的模型一般能夠用來數據擴充,即便對於不一樣的計算機視覺任務也是如此。
-
【★
】 爲一個計算機視覺任務訓練的參數一般對其餘計算機視覺任務的預訓練是有用的。
-
【】 使用得到計算機視覺競賽獎項的相同的技術,普遍應用於實際部署。
-
【★
】 使用開源實現能夠很簡單的來實現複雜的卷積結構。