深度卷積網絡原理—非線性激活的必要性

假設有如上圖所示的神經網絡實例圖網絡

網絡描述以下:函數

1)有2個輸入,即圖中的x1、x2spa

2)有3個神經元,即途中的b1、b2、b3blog

3)共2層網絡。第1層的神經元是b1、b2,第2層的神經元是b3.可將中間層稱爲隱層。例如途中的b1、b2就屬於隱層神經網絡

4)有6個權重(w11到w23)。最終輸出爲OUT。im

 

神經元b1的輸出是: x1w11+x2w21+b1數據

神經元b2的輸出是:x1w12+x2w22+b2db

 

若是沒有非線性激活,那麼最終的輸出OUT的計算公式是:img

OUT=(x1w11 + x2w21 + b1)* w13 + (x1w12 + x2w22 + b2)*w23 + b3co

        =x1*(w11w13 + w12w23) + x2 * (w21w13 + w22w23)+(b1w13 +b2w23 +b3)

 

從上面的公式能夠看出,雖然用了3個神經元,但這個網絡對於x1和x2仍然是線性的,徹底等價於1個神經元的效果。

以下圖:

 

所以,若是隻是把神經元簡單的鏈接在一塊兒,不加入非線性處理,最終獲得的仍然是線性函數,沒法完成描述各類複雜的現象,可看出在神經元的輸出時須要一個非線性函數是必要的。

 

若非線性激活函數對於中間層神經元是f,對於最終輸出神經元是g,那麼,對於此前的網絡,最終的輸出會變爲:

OUT=g(f(x1w11 + x2w21 +  b1)* w13 + f(x1w12 + x2w22+b2)*w23 + b3)

因爲f和g都是非線性的,因而最終可獲得非線性的網絡輸出,便可擬合出複雜的數據。

相關文章
相關標籤/搜索