pytorch 0.3到0.4遷移

1. 棄用Variables 2. .data改用.detach x.detach()返回一個requires_grad=False的共享數據的Tensor,而且,若是反向傳播中須要x,那麼x.detach返回的Tensor的變更會被autograd追蹤。相反,x.data()返回的Tensor,其變更不會被autograd追蹤,若是反向傳播須要用到x的話,值就不對了。web 3. .data[0
相關文章
相關標籤/搜索