您好,登錄后才能下訂單哦!
這篇文章主要介紹了pytorch中.to(device) 和.cuda()有什么區別,具有一定借鑒價值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") # 單GPU或者CPU model.to(device) #如果是多GPU if torch.cuda.device_count() > 1: model = nn.DataParallel(model,device_ids=[0,1,2]) model.to(device)
#指定某個GPU os.environ['CUDA_VISIBLE_DEVICE']='1' model.cuda() #如果是多GPU os.environment['CUDA_VISIBLE_DEVICES'] = '0,1,2,3' device_ids = [0,1,2,3] net = torch.nn.Dataparallel(net, device_ids =device_ids) net = torch.nn.Dataparallel(net) # 默認使用所有的device_ids net = net.cuda()
class DataParallel(Module): def __init__(self, module, device_ids=None, output_device=None, dim=0): super(DataParallel, self).__init__() if not torch.cuda.is_available(): self.module = module self.device_ids = [] return if device_ids is None: device_ids = list(range(torch.cuda.device_count())) if output_device is None: output_device = device_ids[0]
補充:Pytorch使用To方法編寫代碼在不同設備(CUDA/CPU)上兼容(device-agnostic)
以前版本的PyTorch編寫device-agnostic代碼非常困難(即,在不修改代碼的情況下在CUDA可以使用或者只能使用CPU的設備上運行)。
即設備無關,可以理解為無論什么設備都可以運行您編寫的代碼。(PS:個人理解,我沒有在網上找到專業解釋)
PyTorch 0.4.0通過兩種方法使代碼兼容變得非常容易:
張量的device屬性為所有張量提供了torch.device設備。(注意:get_device僅適用于CUDA張量)
to方法Tensors和Modules可用于容易地將對象移動到不同的設備(代替以前的cpu()或cuda()方法)
我們推薦以下模式:
# 開始腳本,創建一個張量 device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") ... # 但是無論你獲得一個新的Tensor或者Module # 如果他們已經在目標設備上則不會執行復制操作 input = data.to(device) model = MyModule(...).to(device)
感謝你能夠認真閱讀完這篇文章,希望小編分享的“pytorch中.to(device) 和.cuda()有什么區別”這篇文章對大家有幫助,同時也希望大家多多支持億速云,關注億速云行業資訊頻道,更多相關知識等著你來學習!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。