91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

pytorch中gpu與gpu、gpu與cpu在load時是怎么相互轉化的

發布時間:2020-07-22 10:30:27 來源:億速云 閱讀:366 作者:小豬 欄目:開發技術

這篇文章主要講解了pytorch中gpu與gpu、gpu與cpu在load時是怎么相互轉化的,內容清晰明了,對此有興趣的小伙伴可以學習一下,相信大家閱讀完之后會有幫助。

問題描述

有時在加載已訓練好的模型時,會出現 out of memory 的錯誤提示,但仔細檢測使用的GPU卡并沒有再用且內存也沒有超出。

經查閱發現原來是訓練模型時使用的GPU卡和加載時使用的GPU卡不一樣導致的。個人感覺,因為pytorch的模型中是會記錄有GPU信息的,所以有時使用不同的GPU加載時會報錯。

解決方法

gpu之間的相互轉換。即,將訓練時的gpu卡轉換為加載時的gpu卡。

torch.load('modelparameters.pth', map_location={'cuda:1':'cuda:0'}) # gpu 1 --> gpu 0

當然,你也可以直接將加載模型時使用的gpu卡改為和訓練時的一樣。但在多人使用一個服務器時,你想用的gpu卡已被使用,就需按上面方法轉換gpu。

拓展

cpu --> cpu 或 gpu --> gpu

checkpoint = torch.load('modelparameters.pth')
model.load_state_dict(checkpoint)

cpu --> gpu 0

torch.load('modelparameters.pth', map_location=lambda storage, loc: storage.cuda(0))

gpu --> cpu

torch.load('modelparameters.pth', map_location=lambda storage, loc: storage)

gpu 1 --> gpu 0

torch.load('modelparameters.pth', map_location={'cuda:1':'cuda:0'})

補充知識:pytorch model.cuda()花費時間很長

如果pytorch在進行model.cuda()操作需要花費的時間很長,長到你懷疑GPU的速度了,那就是不正常的。

如果你用的pytorch版本是0.3.0,升級到0.3.1就好了!

看完上述內容,是不是對pytorch中gpu與gpu、gpu與cpu在load時是怎么相互轉化的有進一步的了解,如果還想學習更多內容,歡迎關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

遂昌县| 德钦县| 钦州市| 汤阴县| 旬邑县| 邢台市| 西乡县| 会宁县| 离岛区| 增城市| 余姚市| 云安县| 铁力市| 苍溪县| 建阳市| 大化| 吉水县| 峨山| 肇东市| 全州县| 伊通| 谷城县| 黄山市| 织金县| 南投县| 高淳县| 文登市| 剑阁县| 大邑县| 邵阳县| 中牟县| 阿拉善盟| 杭州市| 安西县| 马关县| 盐源县| 许昌市| 门头沟区| 榆树市| 尖扎县| 黑水县|