深度學習概念、參數理解:iteration, batch_size, epoch, learning rate, weight_decay

  關於iteration, batch_size, epoch:   神經網絡在訓練數據集上跑一遍,稱爲一次迭代(iteration)   但是一次迭代如果把數據集中的數據都跑一遍,速度會很慢,所以一次iteration只使用部分數據,這個數目就稱爲batch_size   不過這樣的話,一次迭代就不一定能完整的跑完數據集中的所有數據了,這時候如果比較iteration就沒啥意義了,所以又提出了
相關文章
相關標籤/搜索