BN的理解(二)

神經網絡各個操做層的順序:python 一、sigmoid,tanh函數:conv -> bn -> sigmoid -> pooling 數組 二、RELU激活函數:conv -> bn -> relu -> pooling 網絡     通常狀況下,先激活函數,後pooling。但對於RELU激活函數,兩者交換位置無區別。dom       論文原文裏面是「weights -> batchno
相關文章
相關標籤/搜索