relu和Softplus

relu缺點: 訓練的時候很」脆弱」,很容易就」die」了,訓練過程該函數不適應較大梯度輸入,因爲在參數更新以後,ReLU的神經元不會再有激活的功能,導致梯度永遠都是零。 例如,一個非常大的梯度流過一個 ReLU 神經元,更新過參數之後,這個神經元再也不會對任何數據有激活現象了,那麼這個神經元的梯度就永遠都會是 0. 如果 learning rate 很大,那麼很有可能網絡中的 40% 的神經元都
相關文章
相關標籤/搜索