神經網絡中的不變性

個人認爲cnn中conv層對應的是「等變性」(Equivariance),由於conv層的卷積覈對於特定的特徵纔會有較大激活值,所以不論 上一層特徵圖譜(feature map)中的某一特徵平移到何處,卷積核都會找到該特徵並在此處呈現較大的激活值。這應該就是「等變性」 這種「等變性」是由conv層的 1局部連接 2權值共享 兩個特性得到的。 所謂的「形變不變性」,應該指的是,若是特徵有較小的形變,
相關文章
相關標籤/搜索