ResNet、Inception、Xception筆記

ResNet:殘差網絡模塊 衆所周知,深度神經網絡的層數越增加,越容易造成梯度消散問題,而且容易產生過擬合。因此ResNet的作者提出這樣的一種假設:如果我們不直接學習x到H(x)的映射關係,而是學習兩者的差異,也就是殘差(residual),上圖用F(x)表示,然後需要計算H(x)時,將殘差加到輸入上即可,即學習F(x)+x。 ResNet的每一個模塊(block),都由一系列層和一個捷徑(sh
相關文章
相關標籤/搜索