【TensorFlow-windows】keras接口——BatchNorm和ResNet

前言 之前學習利用Keras簡單地堆疊卷積網絡去構建分類模型的方法,但是對於很深的網絡結構很難保證梯度在各層能夠正常傳播,經常發生梯度消失、梯度爆炸或者其它奇奇怪怪的問題。爲了解決這類問題,大佬們想了各種辦法,比如最原始的L1,L2正則化、權重衰減等,但是在深度學習的各種技巧中,批歸一化(Batch Normalization,BN)和殘差網(Residual Network,ResNet)還是比
相關文章
相關標籤/搜索