PyTorch基礎系列(三)——深刻理解autograd:Variable屬性方法【最新已經和tensor合併爲一類】

torch.autograd.backward(variables, grad_variables, retain_variables=False) 當前Variable對leaf variable求偏導。html 計算圖能夠經過鏈式法則求導。若是Variable是 非標量(non-scalar)的,且requires_grad=True。那麼此函數須要指定gradient,它的形狀應該和Vari
相關文章
相關標籤/搜索