epoch、batch、training step(iteration)的區別

  (1)iteration:表示1次迭代(也叫training step),每次迭代更新1次網絡結構的參數; (2)batch-size:1次迭代所使用的樣本量; (3)epoch:1個epoch表示過了1遍訓練集中的所有樣本。 值得注意的是,在深度學習領域中,常用帶mini-batch的隨機梯度下降算法(Stochastic Gradient Descent, SGD)訓練深層結構,它有一個好
相關文章
相關標籤/搜索