爲什麼引入ReLU**函數

https://blog.csdn.net/fredinators/article/details/79443386 ReLu是神經網絡中的一個**函數,其優於tanh和sigmoid函數。 1.爲何引入非線性的**函數? 如果不用**函數,在這種情況下每一層輸出都是上層輸入的線性函數。容易驗證,無論神經網絡有多少層,輸出都是輸入的線性組合,與沒有隱藏層效果相當,這種情況就是最原始的感知機(Per
相關文章
相關標籤/搜索