在看tensorflow的時候,發現書中代碼提到,使用ReLU激活函數完成去線性化
爲什麼需要激活函數去線性化?
查了一下quaro,覺得這個回答能看明白(順便問一句,截圖算不算引用??)
----------------------------------------------------------------------------
個人理解:
如果不用激活函數,多層神經網絡和一層神經網絡就沒什麼區別了
經過多層神經網絡的加權計算,都可以展開成一次的加權計算