【TensorFlow-windows】keras接口——BatchNorm和ResNet

前言 以前學習利用Keras簡單地堆疊卷積網絡去構建分類模型的方法,可是對於很深的網絡結構很難保證梯度在各層可以正常傳播,常常發生梯度消失、梯度爆炸或者其它奇奇怪怪的問題。爲了解決這類問題,大佬們想了各類辦法,好比最原始的L1,L2正則化、權重衰減等,可是在深度學習的各類技巧中,批歸一化(Batch Normalization,BN)和殘差網(Residual Network,ResNet)仍是比
相關文章
相關標籤/搜索