您好,登錄后才能下訂單哦!
本篇內容主要講解“PyTorch optimizer怎么使用”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“PyTorch optimizer怎么使用”吧!
優化器的作用是管理并更新參數組,請構建一個SGD優化器,通過add_param_group方法添加三組參數,三組參數的學習率分別為 0.01, 0.02, 0.03, momentum分別為0.9, 0.8, 0.7,構建好之后,并打印優化器中的param_groups屬性中的每一個元素的key和value(提示:param_groups是list,其每一個元素是一個字典)
import torch import torch.optim as optim torch.manual_seed(1234) w1 = torch.randn((2, 2), requires_grad=True) w2 = torch.randn((2, 2), requires_grad=True) w3 = torch.randn((2, 2), requires_grad=True) w1.grad = torch.ones((2, 2)) print(w1.grad, w2.grad, w3.grad) optimizer = optim.SGD([w1], lr=1, momentum=0.9) optimizer.add_param_group({"params": w2, 'lr': 2, 'momentum': 0.8}) optimizer.add_param_group({"params": w3, 'lr': 3, 'momentum': 0.7}) print("optimizer.param_groups is\n{}".format(optimizer.param_groups)) optimizer.step() print(w1, w2, w3)
到此,相信大家對“PyTorch optimizer怎么使用”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。