【重磅】批量梯度下降、隨機梯度下降、小批量梯度下降

梯度下降有三種 1. 批量梯度下降(Batch Gradient Descent,BGD) 2. 隨機梯度下降(Gradient Descent,SGD) 3. 小批量梯度下降(Mini-Batch Gradient Descent,MBGD) 不同點在於損失函數使用的樣本量的不同,其根本流程是一毛一樣的啊! 各有優缺點。 方法 說明 優點 缺點 適用實例 批量梯度下降 BGD 最原始方法,每次跟
相關文章
相關標籤/搜索