深度學習與計算機視覺[CS231N] 學習筆記(4.1):反向傳播(Backpropagation)

在學習深度學習的過程中,我們常用的一種優化參數的方法就是梯度下降法,而一般情況下,我們搭建的神經網絡的結構是:輸入→權重矩陣→損失函數。如下圖所示。 而在給定輸入的情況下,爲了使我們的損失函數值達到最小,我們就需要調節權重矩陣,使之滿足條件,於是,就有了本文現在要介紹的深度學習中的一個核心方法——反向傳播。 光聽名字可能不太好理解,下面我們用一個簡單的例子來講解反向傳播是如何工作的(瞭解高數中求導
相關文章
相關標籤/搜索