您好,登錄后才能下訂單哦!
這篇文章主要講解了pytorch中gpu與gpu、gpu與cpu在load時是怎么相互轉化的,內容清晰明了,對此有興趣的小伙伴可以學習一下,相信大家閱讀完之后會有幫助。
問題描述
有時在加載已訓練好的模型時,會出現 out of memory 的錯誤提示,但仔細檢測使用的GPU卡并沒有再用且內存也沒有超出。
經查閱發現原來是訓練模型時使用的GPU卡和加載時使用的GPU卡不一樣導致的。個人感覺,因為pytorch的模型中是會記錄有GPU信息的,所以有時使用不同的GPU加載時會報錯。
解決方法
gpu之間的相互轉換。即,將訓練時的gpu卡轉換為加載時的gpu卡。
torch.load('modelparameters.pth', map_location={'cuda:1':'cuda:0'}) # gpu 1 --> gpu 0
當然,你也可以直接將加載模型時使用的gpu卡改為和訓練時的一樣。但在多人使用一個服務器時,你想用的gpu卡已被使用,就需按上面方法轉換gpu。
拓展
cpu --> cpu 或 gpu --> gpu
checkpoint = torch.load('modelparameters.pth')
model.load_state_dict(checkpoint)
cpu --> gpu 0
torch.load('modelparameters.pth', map_location=lambda storage, loc: storage.cuda(0))
gpu --> cpu
torch.load('modelparameters.pth', map_location=lambda storage, loc: storage)
gpu 1 --> gpu 0
torch.load('modelparameters.pth', map_location={'cuda:1':'cuda:0'})
補充知識:pytorch model.cuda()花費時間很長
如果pytorch在進行model.cuda()操作需要花費的時間很長,長到你懷疑GPU的速度了,那就是不正常的。
如果你用的pytorch版本是0.3.0,升級到0.3.1就好了!
看完上述內容,是不是對pytorch中gpu與gpu、gpu與cpu在load時是怎么相互轉化的有進一步的了解,如果還想學習更多內容,歡迎關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。