深度學習中的epoch、 iteration、batchsize和dropout以及常見名詞的含義

1.batchsize: 批大小。在深度學習中,一般採用*SGD(隨機梯度下降法)*訓練,即每次訓練在訓練集中取batchsize個樣本訓練; 2.iteration: 1個iteration等於使用batchsize個樣本訓練一次; 3.epoch: 1個epoch等於使用訓練集中的全部樣本訓練一次; 舉個例子,訓練集有1000個樣本,batchsize=10,那麼: 訓練完整個樣本集需要: 1
相關文章
相關標籤/搜索