深入淺出反向傳播原理 Backpropagation

前述 在深度學習中,我們的訓練模型是一個多層次的神經網絡,每個節點對應一個激活函數,上一個Layer的輸出就是下一個Layer的輸入。這樣的模型,非常像複合函數層層的依賴關係:可以把第一層Layer想象成g(x),則經過下一個Layer,函數就可以表示成f[g(x)]。依靠鏈式法則,我們可以簡化對神經網絡梯度下降優化參數時的計算,從而大大減少訓練所需時間,這就是反向傳播算法。可以說反向傳播算法只是
相關文章
相關標籤/搜索