CS231N-Lecture4 Backpropagation&Neural Network

一、概述 上一集結束之後,學到了score function,可以用SVM或者Softmax計算loss,可以在loss中增加regularization來獲取更加合理的W,並且最後可以用Analytic Gradient(微積分)的方式計算loss function相對於W的gradient來更新W。如下圖。 這一集講了如何使用鏈式法則來反向傳播gradients,來更新W和b,這個gradie
相關文章
相關標籤/搜索