對 BatchNormalization 中 Internal Convariate Shift 的理解

前言:寫的不好,主要解釋了對內部協變量漂移(Internal Convariate Shift)的理解。 之前對BatchNormalization的理解不是很透徹,在搭建神經網絡的時候也沒有很注意去使用,今天集中搜索整理了下Batch Normalization的相關資料,才知道BatchNormalization的重要性,並不是用了Relu激活函數,BatchNormalization就沒有用
相關文章
相關標籤/搜索