pytorch保證每次運行使用的隨機數都相同的方法

其實在代碼的開頭添加下面幾句話便可:html

# 保證訓練時獲取的隨機數都是同樣的
init_seed = 1
torch.manual_seed(init_seed)
torch.cuda.manual_seed(init_seed)
np.random.seed(init_seed) # 用於numpy的隨機數

 

torch.manual_seed(seed)

爲了生成隨機數設置種子。返回一個torch.Generator對象python

參數:安全

seed (int) – 指望的種子數dom

 

torch.cuda.manual_seed(seed)

爲當前GPU生成隨機數設置種子。若是CUDA不可用,調用該方法也是安全的;在這種狀況下,該調用就會被忽略spa

參數:code

seed (int) – 指望的種子數htm

⚠️若是你使用的是多GPU模型,就要調用manual_seed_all(seed).對象

相關文章
相關標籤/搜索