計算機視覺中的深度學習6: 反向傳播

Slides:百度雲 提取碼: gs3n 神經網絡的梯度下降 我們之前在學習線性分類器的時候,使用Loss函數以及梯度下降法來更新權重。那麼對於神經網絡,我們該如何計算每層神經元的權重呢? 對每層W直接求導(愚蠢的方法) 如上公式所示,Loss函數最終是能被表達成由各層W組成的函數公式,並且也完全有可能直接對其進行求導。 問題 非常乏味,需要大量矩陣演算,需要大量紙張 如果我們想改變損失怎麼辦?
相關文章
相關標籤/搜索