cs231n筆記(6)--反向求導

一.理解       反向求導在BP算法中也叫梯度下降,我對其的理解就是爲了讓最後的損失函數損失最小化(即識別誤差最小),如何讓最後誤差最小呢?由於導數在幾何上的意義是函數上升或者下降的趨勢,那麼我們可以把整個人工神經網絡+損失函數的模型看成是一步一步的函數疊加的結果,輸入爲圖像,輸出爲損失。那麼每一個神經元(激活函數)以及之後損失函數都會對最後的誤差結果產生影響。反向求偏導後(鏈式法則,每一步都
相關文章
相關標籤/搜索