對於吳恩達ML課程中Backpropagation計算方法的理解

對於吳恩達ML課程中Backpropagation計算方法的理解 今天在寫吳恩達ML第四次作業的時候,感覺計算neural network中損失函數J對theta的偏微分太難理解了。。和玄學一樣,看視頻的時候也暈暈乎乎的,不知道那些式子是怎麼來的。。想起寒假在B站上看的李宏毅講的一節課,回過頭去看了看,這才明白了吳恩達課程中給出的那些公式的推導過程。 上面兩張是吳恩達ML課程中給出的計算梯度的過程
相關文章
相關標籤/搜索