使用Relu的原因及好處

前言 爲什麼要使用這種非線性激活函數? 實質上就是大部分的生活實際問題都是非線性的,而單單的線性組合往往不足以解決我們生活中的實際問題,也就是我們在利用Machine Learning來學習輸出與輸入之間的映射關係y=f(x)時,f(x)大部分都是非線性的。具體來說,如果使用線性激活函數或者非線性激活函數,那麼無論神經網絡的層數有多少還是在解決線性函數問題,因爲兩個線性函數的組合還是線性的。下面使
相關文章
相關標籤/搜索