TensorFlow 實現深度網絡—反向傳播

在上一章中,我們對前向傳播( Forward Propagation )有了一定的瞭解。前向傳播可以概括爲前饋神經網絡輸入的x 經過每一層的隱藏單元處理,最終產生輸出的y 。在訓練過程中,前向傳播會產生一個損失函數J(w)。反向傳播( Back Propagation )算法(也可簡稱爲Backprop )則允許來自損失函數的信息通過網絡向後流動,以便計算梯度。 反向傳播算法通過一種簡單而廉價的計
相關文章
相關標籤/搜索