昨天發了一篇PyTorch在64位Windows下的編譯過程的文章,有朋友以爲能不能發個包,這樣就不用折騰了。因而,這個包就誕生了。感謝@晴天1494598013779爲conda包的安裝作了測試。git
更新:已經添加了對全部Compute Capability>=2.0的顯卡的支持github
先別急着激動。若是要直接使用的話,你須要知足如下條件:多線程
這四個條件我的感受還算比較OK,若是不想放棄Anaconda2也能夠建立虛擬環境來使用。post
要安裝的話,若是你不嫌棄anaconda cloud的網速的話,只需鍵入下面一條命令:測試
conda install -c peterjc123 pytorch=0.1.12複製代碼
若是不能忍受conda那蝸牛爬般的網速的話,那我爲你們將包上傳至公有云中,能夠嘗試七牛雲或者百度雲,你們下載以後,鍵入以下幾條指令:spa
conda install numpy mkl cffi
conda install --offline path/to/tar/pytorch-0.1.12-py36_0.1.12cu80.tar.bz2複製代碼
安裝以後,也千萬要注意,要在主代碼的最外層包上線程
if __name__ == '__main__':複製代碼
這個判斷,能夠參照我昨天文章中的例子,由於PyTorch的多線程庫在Windows下工做還不正常。code
更新:經網友提醒,若import torch時發生以下錯誤:ci
Traceback (most recent call last):
File "test.py", line 2, in <module>
import torch
File "C:\Anaconda3\lib\site-packages\torch\__init__.py", line 41, in <module>
from torch._C import *
ImportError: DLL load failed: The specified module could not be found.複製代碼
請將Anaconda的Python版本從3.6.0升級至3.6.1。get
附一段簡單測試CUDA與cuDNN是否工做正常的代碼:
# CUDA TEST
import torch
x = torch.Tensor([1.0])
xx = x.cuda()
print(xx)
# CUDNN TEST
from torch.backends import cudnn
print(cudnn.is_acceptable(xx))複製代碼
若是CUDA工做不正常,那就不能使用.cuda()將模型和數據經過GPU進行加速了。而若是cuDNN不能正常工做,那就使用以下代碼關掉它:
cudnn.enabled = False複製代碼
以上,就是文章的所有內容啦,若是感受還意猶未盡的話,能夠給個人Github 主頁或者項目加個watch或者star之類的(滑稽),之後說不定還會再分享一些相關的經驗。