深度學習--激活函數的對比分析

本博客僅爲作者記錄筆記之用,不免有很多細節不對之處。還望各位看官能夠見諒,歡迎批評指正。   在學習神經網絡的時候,你會經常聽到一個詞:激活函數。在最開始學習的時候,對激活函數總是有很多的疑惑。在日常搭建網絡的時候選擇激活函數也是很隨意,看到大家都說ReLU效果好,就一股腦使用ReLU。通常沒去深究一些問題: 激活函數到底是什麼? 爲什麼要使用激活函數? 常用的激活函數有哪些? 這些常用的激活函數
相關文章
相關標籤/搜索