【李宏毅 深度學習】Gradient Descent_1-2

接上篇:https://blog.csdn.net/Aibiabcheng/article/details/107430209 Tip 2: Stochastic Gradient Descent 誤差Loss是所有預測值與真實值之間誤差之和。 與Adagrad不同,隨機梯度下降,是取一個樣本Xn(可以隨機取,也可以按順序取),計算Loss值(下面公式),然後計算梯度。 原來的Gradient D
相關文章
相關標籤/搜索