91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

pytorch多GPU并行運算的實現

發布時間:2021-06-02 18:04:34 來源:億速云 閱讀:284 作者:Leah 欄目:開發技術

這篇文章將為大家詳細講解有關pytorch多GPU并行運算的實現,文章內容質量較高,因此小編分享給大家做個參考,希望大家閱讀完這篇文章后對相關知識有一定的了解。

Pytorch多GPU運行

設置可用GPU環境變量。例如,使用0號和1號GPU'

os.environ["CUDA_VISIBLE_DEVICES"] = '0,1'

設置模型參數放置到多個GPU上。在pytorch2.0之后的版本中,多GPU運行變得十分方便,先將模型的參數設置并行

if torch.cuda.device_count() > 1:
      print("Let's use", torch.cuda.device_count(), "GPUs!")
      model = nn.DataParallel(model)

將模型參數設置使用GPU運行

if torch.cuda.is_available():
      model.cuda()

踩坑記錄

在訓練中,需要使用驗證集/測試集對目前的準確率進行測試,驗證集/測試集的加載也會占用部分顯存,所以在訓練開始時,不要將所有顯存都幾乎占滿,稍微留一些顯存給訓練過程中的測試環節

pytorch并行后,假設batchsize設置為64,表示每張并行使用的GPU都使用batchsize=64來計算(單張卡使用時,使用batchsize=64比較合適時,多張卡并行時,batchsize仍為64比較合適,而不是64*并行卡數)。

關于pytorch多GPU并行運算的實現就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

洛浦县| 石家庄市| SHOW| 昭通市| 淳化县| 高台县| 宝应县| 托克逊县| 金川县| 黑河市| 娄底市| 邮箱| 藁城市| 临清市| 监利县| 渝北区| 阳朔县| 简阳市| 通渭县| 巩留县| 芷江| 昌江| 惠水县| 冕宁县| 宁海县| 香河县| 岳普湖县| 青神县| 昌邑市| 泾源县| 阳新县| 锦州市| 宜川县| 高唐县| 弥渡县| 光泽县| 宣汉县| 青河县| 涟水县| 安化县| 古浪县|