深度學習中的正則化處理Normalization

Normalization Batch Normaliation 批標準化處理,批:指一批數據,通常爲mini-batch;標準化:0均值,1方差。 可以用更大學習率,加速模型收斂 可以不用精心設計權值初始化 可以不用dropout或者較小的dropout 可以不用L2或者較小的Weight decay 可以不用LRN(local response normalization) 計算式 其中,no
相關文章
相關標籤/搜索