原理
參考:https://www.cnblogs.com/charlotte77/p/7759802.htmlhtml
卷積層:函數
做用:特徵提取,減少參數優化
池化層:spa
做用:將卷積層提取的特徵中最能反映該特徵的特徵值取出來htm
Flattern layer和全鏈接層:blog
做用:前者將前面獲得的feature_map這種矩陣拍平,拍平後做爲輸入輸入到全鏈接層,全鏈接層輸出後使用softmax獲得多分類的機率get
下面的機器之心的回答講解的更細緻準確:input
參考:https://www.zhihu.com/question/52668301io
一、cnn的結構爲:input——conv——relu——conv——relu——pool——relu——conv——relu——pool——fully connectedclass
而在卷積層中用來提取特徵的矩陣叫卷積核(也叫過濾器)
在cnn中離輸入層越近的卷積層(篩選出來的特徵值)對應的特徵越低級,越遠越高級。例如篩選的特徵從左到右依次爲曲線特徵,圓形特徵。
在全鏈接層,當使用softmax激活函數時,全鏈接層的輸出是一個n維向量,n是多分類問題的類別數量
模型的訓練是經過一個名爲反向傳播的訓練過程來調整過濾器值(或權重)(這裏參照西瓜書反向傳播部分),cnn也有其餘模型訓練時用到的損失函數、評價指標,求解參數(過濾器值或權重)時也用的是梯度降低法。
全鏈接層的解釋:
畫圖解釋:https://zhuanlan.zhihu.com/p/23178423
全鏈接層中的「卷積」操做:https://zhuanlan.zhihu.com/p/33841176
https://www.zhihu.com/question/41037974