模型優化:BatchNorm合併到卷積中

1.bn合併的必要性:    bn層即batch-norm層,一般是深度學習中用於加速訓練速度和一種方法,一般放置在卷積層(conv層)或者全連接層之後,將數據歸一化並加速了訓練擬合速度。但是bn層雖然在深度學習模型訓練時起到了一定的積極作用,但是在預測時因爲憑空多了一些層,影響了整體的計算速度並佔用了更多內存或者顯存空間。所以我們設想如果能將bn層合併到相鄰的卷積層或者全連接層之後就好了,於是就
相關文章
相關標籤/搜索