吳恩達Coursera深度學習課程 deeplearning.ai (2-2) 優化算法--課程筆記

相關課件:https://download.csdn.net/download/haoyutiangang/10495508 2.1 Mini-batch 梯度下降法 原因: 大數據集時,執行一次循環時間很長,梯度下降很慢; mini-batch 是指將大數據集 n分成一系列小數據集m,每計算一個小數據集就執行一次梯度下降,這樣一次大數據集的計算可以下降n/m 次,從而增加梯度下降的速度。 執行一
相關文章
相關標籤/搜索