pytorch學習日記(三)——之Data Parallelism

PyTorch中使用了張量類型,而不用numpy的array,就是爲了能夠在GPU上運行代碼,那咱們怎麼樣才能使用GPUs來加速運行呢。其實很是簡單,幾條語句就能夠完成了。python 1. 基本語句 模型放到一個GPU上運行 model.gpu() 將張量放到GPU上 mytensor = my_tensor.gpu() 注: 僅僅調用my_tensor.gpu()函數並不會將張量複製到GPU上
相關文章
相關標籤/搜索