卷積神經網絡是在圖像領域頗有用的一種網絡結構,那麼它的優勢主要體如今哪幾個方面呢?html
咱們首先了解一個概念,感覺野,即每一個神經元僅與輸入神經元相鏈接的一塊區域。在圖像卷積操做中,神經元在空間維度上是局部鏈接,但在深度上是全鏈接。局部鏈接的思想,是受啓發於生物學裏的視覺系統結構,視覺皮層的神經元就是僅用局部接受信息。對於二維圖像,局部像素關聯性較強。這種局部鏈接保證了訓練後的濾波器可以對局部特徵有最強的響應,使神經網絡能夠提取數據的局部特徵;下圖是一個很經典的圖示,左邊是全鏈接,右邊是局部鏈接。網絡
對於一個1000 × 1000的輸入圖像而言,若是下一個隱藏層的神經元數目爲10^6個,採用全鏈接則有1000 × 1000 × 10^6 = 10^12個權值參數,如此巨大的參數量幾乎難以訓練;而採用局部鏈接,隱藏層的每一個神經元僅與圖像中10 × 10的局部圖像相鏈接,那麼此時的權值參數數量爲10 × 10 × 10^6 = 10^8,將直接減小4個數量級。app
權值共享,即計算同一深度的神經元時採用的卷積核參數是共享的。權值共享在必定程度上講是有意義的,是因爲在神經網絡中,提取的底層邊緣特徵與其在圖中的位置無關。可是在另外一些場景中是無心的,如在人臉識別任務,咱們指望在不一樣的位置學到不一樣的特徵。須要注意的是,權重只是對於同一深度切片的神經元是共享的。在卷積層中,一般採用多組卷積核提取不一樣的特徵,即對應的是不一樣深度切片的特徵,而不一樣深度切片的神經元權重是不共享。相反,偏置這一權值對於同一深度切片的全部神經元都是共享的。權值共享帶來的好處是大大下降了網絡的訓練難度。以下圖,假設在局部鏈接中隱藏層的每個神經元鏈接的是一個10 × 10的局部圖像,所以有10 × 10個權值參數,將這10 × 10個權值參數共享給剩下的神經元,也就是說隱藏層中10^6個神經元的權值參數相同,那麼此時無論隱藏層神經元的數目是多少,須要訓練的參數就是這 10 × 10個權值參數(也就是卷積核的大小)。ide
這裏就體現了卷積神經網絡的奇妙之處,使用少許的參數,卻依然能有很是出色的性能。上述僅僅是提取圖像一種特徵的過程。若是要多提取出一些特徵,能夠增長多個卷積核,不一樣的卷積核可以獲得圖像不一樣尺度下的特徵,稱之爲特徵圖(feature map)。性能
池化操做與多層次結構一塊兒,實現了數據的降維,將低層次的局部特徵組合成爲較高層次的特徵,從而對整個圖片進行表示。以下圖:spa
參考:
3d
[1] https://www.cnblogs.com/bonelee/p/8242061.htmlorm
喜歡就關注一下啦~~~htm