深度學習激活函數優缺點分析

轉自:https://blog.csdn.net/not_guy/article/details/78749509 在深度學習中,信號從一個神經元傳入到下一層神經元之前是通過線性疊加來計算的,而進入下一層神經元需要經過非線性的激活函數,繼續往下傳遞,如此循環下去。由於這些非線性函數的反覆疊加,才使得神經網絡有足夠的capacity來抓取複雜的特徵。 爲什麼要使用非線性激活函數? 答:如果不使用激活
相關文章
相關標籤/搜索