CNN中的參數記錄(上)

最近用Keras寫模型,其實CNN的結構相對來說還是比較容易理解的,無非就是參數的抉擇 1.activition 就是激活函數啦,激活函數就是爲了增加神經網絡的非線性,不讓它產生過擬合,常用的也就那麼幾種,relu,softmax,sigmoid,tanh,一般來說paper中用的較多的是relu,softmax,sigmoid 2.padding 這個在卷積層和池化層都是可選項,padding=
相關文章
相關標籤/搜索