pytorch中nn模塊的BatchNorm2d()函數

可以參考 https://www.cnblogs.com/king-lps/p/8378561.html 在卷積神經網絡的卷積層之後總會添加BatchNorm2d進行數據的歸一化處理,這使得數據在進行Relu之前不會因爲數據過大而導致網絡性能的不穩定,常用於卷積網絡中(防止梯度消失或爆炸)。 BatchNorm2d()函數數學原理如下: 例如:假設在網絡中間經過某些卷積操作之後的輸出的featur
相關文章
相關標籤/搜索