2020李宏毅學習筆記——9. Backpropagation

課程目的: 主要講了,神經網絡Backpropagation算法的推導過程 1.爲什麼Backpropagation 首先:當我們要用gradient descent來train一個neural network,要怎麼做?開始時參數特別多,計算初始參數的微分,然後不斷更新參數 在神經網絡中的梯度下降算法和之前求線性迴歸方程中用的沒有太大的區別,都是不斷的計算微分,然後更新參數,最終找到一個最優解。
相關文章
相關標籤/搜索