吳恩達《深度學習》第二門課(2)優化算法

2.1Mini-batch梯度下降 (1)例如有500萬個訓練樣本,這時可以每1000個組成一個Mini-batch,共用5000個Mini-batch。主要是爲了加快訓練。 (2)循環完所有的訓練樣本稱爲(1 epoch)。 (3)使用大括號X{t},Y{t}表示一個Mini-batch。(小括號(i)表示第i個樣本,中括號[l]表示神經網絡第l層)。 2.2理解mini-batch梯度下降法
相關文章
相關標籤/搜索