吳恩達ML課程筆記(Chapter 17)

17-2 隨機梯度下降 1.隨機梯度下降的步驟 隨機梯度下降和普通的梯度下降的不同點在於前者的每次迭代都只需要擬合一個訓練數據就可以了,後者則需要在每次迭代的時候都要考慮所有樣本。 2.隨機梯度下降的思想就是每次迭代後都會用這次迭代得到的參數去擬合下一個樣本點 3.另外,外層循環的次數通常在1~10之間 17-3 mini-batch梯度下降 1.在每一次迭代中使用b個樣本,b通常取2~100 2
相關文章
相關標籤/搜索