深度學習部分概念解析 - 1

1.優化方法介紹 這裏說的優化問題指的是,給定目標函數f(x),我們需要找到一組參數x,使得f(x)的值最小。 SGD SGD是stochastic gradient descent的簡稱,即隨機梯度下降。此外還有BGD,B指的是batch,意思爲批量梯度下降。對於訓練數據集,我們先將其分爲n個batch,每個batch包含m個樣本, x t+1=x t+Δx t Δx t=−ηg t 其中,η爲
相關文章
相關標籤/搜索