hung-yi lee_p17_卷積神經網絡(cont.)

文章目錄 背景: 卷積層 池化層 攤平 Keras 背景: DNN拿掉一些參數就成CNN 爲什麼可以這樣做 每一個神經元只需要圖中的一部分就可以識別出想要的模式 更小的區域意味着更少的參數 同樣的模式也許出現在圖片的不同位置 這時參數可以共享 對像素進行縮減(例如把奇數行偶數列的都刪去)對圖像識別不會有太大影響 這無疑也能減少參數 CNN的架構如下圖所示 其中卷積層和池化層要重複多少次,在訓練之前
相關文章
相關標籤/搜索