Cousera吳恩達機器學習week7筆記

Stochastic Gradient Descent 隨機梯度下降每次只對一個數據進行計算,相對傳統的批處理梯度下降運行速度更快一些。 Mini-Batch Gradient Descent Stochastic Gradient Descent Convergence 雖然不斷減小alpha的值有助於我們找到全局最小,但是這個會讓工作量增加,而且找到最小的範圍已經滿足我們的需要了,因此一般我們
相關文章
相關標籤/搜索