機器學習中Batch Size、Iteration和Epoch的概念

機器學習中Batch Size、Iteration和Epoch的概念 Epoch一個epoch指代所有的數據送入網絡中完成一次前向計算及反向傳播的過程。由於一個epoch常常太大,計算機無法負荷,我們會將它分成幾個較小的batches。那麼,爲什麼我們需要多個epoch呢?我們都知道,在訓練時,將所有數據迭代訓練一次是不夠的,需要反覆多次才能擬合收斂。在實際訓練時,我們將所有數據分成幾個batch
相關文章
相關標籤/搜索