激活函數Relu的優勢

激活函數Relu的優勢網絡

  1.可使網絡訓練更快函數

  2.增長網絡的非線性神經網絡

  3.防止梯度消失(彌散)

  4.使網絡具備稀疏性

Dropout層:

  做用:隨機將必定比例的神經元置爲0

 

神經網絡處理圖像分類的流程:

訓練階段:  

相關文章
相關標籤/搜索