91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

pytorch中的to(device)和map_location=device有什么區別

發布時間:2022-02-24 13:02:53 來源:億速云 閱讀:587 作者:iii 欄目:開發技術

這篇文章主要介紹了pytorch中的to(device)和map_location=device有什么區別的相關知識,內容詳細易懂,操作簡單快捷,具有一定借鑒價值,相信大家閱讀完這篇pytorch中的to(device)和map_location=device有什么區別文章都會有所收獲,下面我們一起來看看吧。

一、簡介

map_location函數中的參數設置 torch.load()cuda:device_id。這會將模型加載到給定的GPU設備。

調用model.to(torch.device('cuda'))將模型的參數張量轉換為CUDA張量,無論在cpu上訓練還是gpu上訓練,保存的模型參數都是參數張量不是cuda張量,因此,cpu設備上不需要使用torch.to(torch.device("cpu"))

二、實例

了解了兩者代表的意義,以下介紹兩者的使用。

1、保存在GPU上,在CPU上加載

保存:

torch.save(model.state_dict(), PATH)

加載:

device = torch.device('cpu')
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH, map_location=device))

解釋:

在使用GPU訓練的CPU上加載模型時,請傳遞 torch.device('cpu')map_location函數中的 torch.load()參數,使用map_location參數將張量下面的存儲器動態地重新映射到CPU設備 。

2、保存在GPU上,在GPU上加載

保存:

torch.save(model.state_dict(), PATH)

加載:

device = torch.device("cuda")
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH))
model.to(device)
# Make sure to call input = input.to(device) on any input tensors that you feed to the model

解釋:

在GPU上訓練并保存在GPU上的模型時,只需將初始化model模型轉換為CUDA優化模型即可model.to(torch.device('cuda'))

此外,請務必.to(torch.device('cuda'))在所有模型輸入上使用該 功能來準備模型的數據。

請注意,調用my_tensor.to(device) 返回my_tensorGPU上的新副本。

它不會覆蓋 my_tensor

因此,請記住手動覆蓋張量: my_tensor = my_tensor.to(torch.device('cuda'))

3、保存在CPU,在GPU上加載

保存:

torch.save(model.state_dict(), PATH)

加載:

device = torch.device("cuda")
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH, map_location="cuda:0"))  # Choose whatever GPU device number you want
model.to(device)
# Make sure to call input = input.to(device) on any input tensors that you feed to the model

解釋:

在已訓練并保存在CPU上的GPU上加載模型時,請將map_location函數中的參數設置 torch.load()cuda:device_id

這會將模型加載到給定的GPU設備。

接下來,請務必調用model.to(torch.device('cuda'))將模型的參數張量轉換為CUDA張量。

最后,確保.to(torch.device('cuda'))在所有模型輸入上使用該 函數來為CUDA優化模型準備數據。

請注意,調用 my_tensor.to(device)返回my_tensorGPU上的新副本。

它不會覆蓋my_tensor

因此,請記住手動覆蓋張量:my_tensor = my_tensor.to(torch.device('cuda'))

關于“pytorch中的to(device)和map_location=device有什么區別”這篇文章的內容就介紹到這里,感謝各位的閱讀!相信大家對“pytorch中的to(device)和map_location=device有什么區別”知識都有一定的了解,大家如果還想學習更多知識,歡迎關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

博兴县| 邢台县| 临潭县| 乳山市| 塘沽区| 岚皋县| 开封县| 本溪市| 弥勒县| 柘城县| 汉沽区| 上思县| 且末县| 黄冈市| 莎车县| 鞍山市| 赤壁市| 南涧| 鸡西市| 赫章县| 靖宇县| 百色市| 镇安县| 波密县| 葵青区| 安多县| 永平县| 申扎县| 慈利县| 通山县| 东丰县| 霍林郭勒市| 同心县| 镇平县| 军事| 读书| 天峨县| 南和县| 孟津县| 邮箱| 峡江县|