Learning representations by back-propagating errors

這篇文章清晰地闡釋了backpropagation的過程。 backpropagation的精髓就在於chain rule。同時利用神經網絡的結構,使得gradient descent的過程就如同反向的神經網絡一般。 假設我們有如下一個神經網絡 其中 最終的loss function被定義爲 gradient descent所做的事情就是不斷調整W的取值,使得最終的loss function最小化
相關文章
相關標籤/搜索