06 Pytorch實現反向傳播

反向傳播   上一篇博客大致介紹了反向傳播,但是沒有提及到計算圖的概念。比如下面我以一個兩層的神經網絡爲例,它的 y_hat 表達式爲:      下面我們來構建它的計算圖:      這裏需要注意的是我們現在的一個兩層的神經網絡的 y_hat 可以展開爲:      然後我們發現不斷地進行線性變換,不管你有多少層最後都會統一成 y = W ∗ x + b y = W*x + b y=W∗x+b
相關文章
相關標籤/搜索