Pytorch中的backward

首先聲明Pytorch的backward機制: y.backward()時,如果y是標量(scalar),則不需要爲backward()傳入任何參數; 如果y是張量(tensor),需要傳入一個與y同形的Tensor(張量) ①y是scalar標量 ②y是Tensor張量 ①如果直接像標量那樣計算 就會報錯顯示:RuntimeError: grad can be implicitly create
相關文章
相關標籤/搜索