神經網路的優化(1)----激活函數:梯度消失問題、ReLU、Maxout

一、sigmoid函數會導致梯度消失問題                                                                                          點擊此處返回總目錄 二、ReLU激活函數 三、Maxout network     剛纔我們說,在deep learning的recipe裏面,有兩個問題。所以等一下,我們就這兩個
相關文章
相關標籤/搜索