deeplearning.ai 筆記 Specialization 2 week 2 優化算法

本週將如何是的自己的算法更快 1.mini-batch梯度下降 同時處理的不再是整個X和Y,而是一部分X^{1}、Y^{1}...這樣可以使梯度下降先處理一部分,加快訓練速度。 batch來源於整個訓練集合訓練完成梯度下降,mini-batch是分割數據集後進行多次梯度下降。 epoch 代表完全遍歷集合一次,batch只能做一次梯度下降,而mini-batch可以做多次(和分割的大小有關) 2.
相關文章
相關標籤/搜索