pytorch變量間的內存共享

我們在使用pytorch時,經常會用一個變量對另外一個變量賦值,但是某些操作得到的結果只是原變量的引用,內存是共享的,修改一個變量,其他變量的值也會受影響。有些操作是拷貝的操作。 使用 b=a[:,:5,5] b=a[0] b=a[…,0] 等操作得到的a是b的一個引用,內存是共享的,當b的值被某些操作修改後,a的值也會改變, c=b.unsqueeze(0).expand(10,4) , Ten
相關文章
相關標籤/搜索