ReLU 和 MaxOut 網絡

文章目錄 1 sigmoid激活函數的不足之處 2. Relu 3. Relu的變種 3.1 LeakReLU 3.2 PReLU 3.3 RReLU 4. MaxOut 網絡 4.1 與ReLU的關係 4.2 可能訓練處激活函數的樣子 4.3 MaxOut 的訓練 1 sigmoid激活函數的不足之處 在網絡結構非常深的情況下,由於梯度消失問題的存在,可能會導致靠近輸入附近的隱藏層的權重變化較慢
相關文章
相關標籤/搜索