深度學習中的激活函數與梯度消失

轉載請註明出處:http://www.cnblogs.com/willnote/p/6912798.html 前言 深度學習的基本原理是基於人工神經網絡,信號從一個神經元進入,經過非線性的激活函數,傳入到下一層神經元;再經過該層神經元的激活,繼續往下傳遞,如此循環往復,直到輸出層。正是由於這些非線性函數的反覆疊加,才使得神經網絡有足夠的能力來抓取複雜的模式,在各個領域取得不俗的表現。顯而易見,激活
相關文章
相關標籤/搜索