pyTorch--Gradient 兩種方法

torch.autograd.grad(loss, [w1,w2,...]) 第一個參數是損失函數,第二個參數是loss的變量, 返回值是一個包含每個變量的偏導的list,[w1.grad,w2.grad,…] loss.backward() 直接用loss調用backword函數,但是這樣不會直接返回梯度信息,而是附在每個要求梯度的變量上,可以通過w.grad查看變量的偏導。
相關文章
相關標籤/搜索