tensorflow中batch normalization的用法

網上找了下tensorflow中使用batch normalization的博客,發現寫的都不是很好,在此總結下:網絡 1.原理post 公式以下:學習 y=γ(x-μ)/σ+β測試 其中x是輸入,y是輸出,μ是均值,σ是方差,γ和β是縮放(scale)、偏移(offset)係數。spa 通常來說,這些參數都是基於channel來作的,好比輸入x是一個16*32*32*128(NWHC格式)的fe
相關文章
相關標籤/搜索