優化算法--深度學習Lesson2--week2

在大數據上進行深度學習的速度很慢,因此我們需要學習一些方法來加快深度學習的速度。 1batch vs. mini-batch梯度下降 1.什麼是mini-batch? 向量化能夠使得我們更快地處理輸入X和輸出Y,可是當輸入樣本量太大時,比如m=5000000,梯度下降的速度仍舊會比較慢。這時可以把訓練集分割爲小一點的子訓練集,這些子集稱爲mini-batch,比如1~1000爲第一個mini-ba
相關文章
相關標籤/搜索