深度學習之梯度下降法

梯度下降 簡而言之,對於深度學習的模型,比如普通的神經網絡,我們有一個輸入值 x x x,一個矩陣 W W W 和一個輸出預測值 Y ^ = W ⋅ x \hat{Y}=W·x Y^=W⋅x, 但是往往除此之外還會有一個真實的 y y y 值。拿一種較爲常見的損失函數公式舉例: C o s t = ( p r e d i c t e d − r e a l ) 2 = ( W ⋅ x − y )
相關文章
相關標籤/搜索