爲什麼神經網絡中需要激活函數(activation function)?

在看tensorflow的時候,發現書中代碼提到,使用ReLU激活函數完成去線性化 爲什麼需要激活函數去線性化? 查了一下quaro,覺得這個回答能看明白(順便問一句,截圖算不算引用??) ---------------------------------------------------------------------------- 個人理解: 如果不用激活函數,多層神經網絡和一層神經網絡
相關文章
相關標籤/搜索