您好,登錄后才能下訂單哦!
使用pytorch怎么保證每次運行的隨機數相同?針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。
其實在代碼的開頭添加下面幾句話即可:
# 保證訓練時獲取的隨機數都是一樣的 init_seed = 1 torch.manual_seed(init_seed) torch.cuda.manual_seed(init_seed) np.random.seed(init_seed) # 用于numpy的隨機數
torch.manual_seed(seed)
為了生成隨機數設置種子。返回一個torch.Generator對象
參數:
seed (int) – 期望的種子數
torch.cuda.manual_seed(seed)
為當前GPU生成隨機數設置種子。如果CUDA不可用,調用該方法也是安全的;在這種情況下,該調用就會被忽略
參數:
seed (int) – 期望的種子數
如果你使用的是多GPU模型,就要調用manual_seed_all(seed).
關于使用pytorch怎么保證每次運行的隨機數相同問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。