深度學習入門筆記手稿(九)mini-batch梯度下降

深度學習入門筆記手稿(九)mini-batch梯度下降 mini-batch梯度下降 特性 mini-batch梯度下降 數據特別大時在,在全部處理完全部數據之前,先讓梯度下降處理一部分,算法速度會加快。把訓練集分割爲小一點的子訓練集,這些子集取名爲mini batch #一代 只是一次遍歷訓練集 例子 500萬數據 X=[x(1),x(2),…x(1000)] 【x(1001),…x(2000)
相關文章
相關標籤/搜索