吳恩達《深度學習》第二課第二週筆記

改善深層神經網絡之優化算法 一、mini-batch梯度下降法 機器學習的應用是一個高度依賴經驗的過程,需要大量的迭代,需要訓練大量的模型,所以需要優化算法才能快速訓練模型。 使用mini-batch的意義:當訓練樣本集非常巨大時,比如500W個,使用向量化處理數據時每次處理如此巨大的數據會使訓練過程非常緩慢。因此,我們可以分批的處理數據,以達到加快訓練的目的。劃分mini-batch後的X(i)
相關文章
相關標籤/搜索