當卷積層後跟batch normalization層時爲什麼不要偏置b

起因 之前使用的是inception-v2模型,在v2中,標準的卷積模塊爲: * conv_w_b->bn->relu ->pooling* 即,在v2中,儘管在卷積之後、激活函數之前大量使用batch normalization,但是卷積層依然使用可學習的偏置參數。 這也比較符合我的直觀理解,因爲偏置在一般的卷積神經網絡中本來就是很重要的,可以讓超判決面不過原點。 但是我在讀inception-
相關文章
相關標籤/搜索