爲什麼神經網絡中需要激活函數(activation function)?

在看tensorflow的時候,發現書中代碼提到,使用ReLU激活函數完成去線性化

爲什麼需要激活函數去線性化?

查了一下quaro,覺得這個回答能看明白(順便問一句,截圖算不算引用??)

----------------------------------------------------------------------------

個人理解:

如果不用激活函數,多層神經網絡和一層神經網絡就沒什麼區別了

經過多層神經網絡的加權計算,都可以展開成一次的加權計算