深度學習|卷積神經網絡(CNN)介紹(後篇)

01 — 回顧 昨天介紹了CNN的卷積操作,能減少權重參數的個數,卷積操作涉及到三個超參數: 深度(Depth) 步長(Stride) 零填充(Zero-padding) 還有一種運算,叫做求內積,關於這部分的總結,請參考: 深度學習|卷積神經網絡(CNN)介紹(前篇) 下面,闡述CNN剩下的兩種操作,ReLU,Pooling。 02 — ReLU操作 CNN用的激活函數不是Sigmoid函數,大
相關文章
相關標籤/搜索