激活函數Relu的優勢網絡
1.可使網絡訓練更快函數
2.增長網絡的非線性神經網絡
3.防止梯度消失(彌散)
4.使網絡具備稀疏性
Dropout層:
做用:隨機將必定比例的神經元置爲0
神經網絡處理圖像分類的流程:
訓練階段: