Deep learning II - II Optimization algorithms - Mini-batch gradient descent

Mini-batch gradient descent 1. 用batch gradient descent時,當數據量巨大時,向量化的實現同樣很慢,並且需要處理全部數據後,gradient纔會得到更新 2. 使用mini-batch gradient descent來訓練時,每一個mini-batch都能時gradient得到更新(但不一定都使 L L 下降) 3. mini-batch的大小如
相關文章
相關標籤/搜索