91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么在PyTorch中實現 一個Optimizer訓練工具

發布時間:2021-04-19 17:57:43 來源:億速云 閱讀:165 作者:Leah 欄目:開發技術

怎么在PyTorch中實現 一個Optimizer訓練工具?針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

pytorch的優點

1.PyTorch是相當簡潔且高效快速的框架;2.設計追求最少的封裝;3.設計符合人類思維,它讓用戶盡可能地專注于實現自己的想法;4.與google的Tensorflow類似,FAIR的支持足以確保PyTorch獲得持續的開發更新;5.PyTorch作者親自維護的論壇 供用戶交流和求教問題6.入門簡單

torch.optim 是一個實現了各種優化算法的庫。大部分常用的方法得到支持,并且接口具備足夠的通用性,使得未來能夠集成更加復雜的方法。

使用 torch.optim,必須構造一個 optimizer 對象。這個對象能保存當前的參數狀態并且基于計算梯度更新參數。

例如:

optimizer = optim.SGD(model.parameters(), lr = 0.01, momentum=0.9)
optimizer = optim.Adam([var1, var2], lr = 0.0001)

構造方法

Optimizer 的 __init__ 函數接收兩個參數:第一個是需要被優化的參數,其形式必須是 Tensor 或者 dict;第二個是優化選項,包括學習率、衰減率等。

被優化的參數一般是 model.parameters(),當有特殊需求時可以手動寫一個 dict 來作為輸入。

例如:

optim.SGD([
  {'params': model.base.parameters()},
  {'params': model.classifier.parameters(), 'lr': 1e-3}
], lr=1e-2, momentum=0.9)

這樣 model.base 或者說大部分的參數使用 1e-2 的學習率,而 model.classifier 的參數使用 1e-3 的學習率,并且 0.9 的 momentum 被用于所有的參數。

梯度控制

在進行反向傳播之前,必須要用 zero_grad() 清空梯度。具體的方法是遍歷 self.param_groups 中全部參數,根據 grad 屬性做清除。

例如:

for input, target in dataset:
  def closure():
    optimizer.zero_grad()
    output = model(input)
    loss = loss_fn(output, target)
    loss.backward()
    return loss
  optimizer.step(closure)

調整學習率

lr_scheduler 用于在訓練過程中根據輪次靈活調控學習率。調整學習率的方法有很多種,但是其使用方法是大致相同的:用一個 Schedule 把原始 Optimizer 裝飾上,然后再輸入一些相關參數,然后用這個 Schedule 做 step()。

比如以 LambdaLR 舉例:

lambda1 = lambda epoch: epoch // 30
lambda2 = lambda epoch: 0.95 ** epoch
scheduler = LambdaLR(optimizer, lr_lambda=[lambda1, lambda2])
for epoch in range(100):
 train(...)
 validate(...)
 scheduler.step()

上面用了兩種優化器

優化方法

optim 庫中實現的算法包括 Adadelta、Adagrad、Adam、基于離散張量的 Adam、基于 ∞ \infty∞ 范式的 Adam(Adamax)、Averaged SGD、L-BFGS、RMSProp、resilient BP、基于 Nesterov 的 SGD 算法。

以 SGD 舉例:

optimizer = torch.optim.SGD(model.parameters(), lr=0.1, momentum=0.9)
optimizer.zero_grad()
loss_fn(model(input), target).backward()
optimizer.step()

其它方法的使用也一樣:

opt_Adam = torch.optim.Adam(net_Adam.parameters(), lr=0.1, betas=(0.9, 0.99)
opt_RMSprop = torch.optim.RMSprop(net_RMSprop.parameters(), lr=0.1, alpha=0.9)
...
...

關于怎么在PyTorch中實現 一個Optimizer訓練工具問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

大余县| 洛阳市| 虹口区| 绵竹市| 陆川县| 延津县| 饶阳县| 理塘县| 湛江市| 启东市| 高要市| 星座| 白城市| 德清县| 涞水县| 翁源县| 赤峰市| 汨罗市| 尉氏县| 淳安县| 荔浦县| 林周县| 枣强县| 洪泽县| 淮阳县| 海安县| 宝坻区| 赞皇县| 璧山县| 深圳市| 明溪县| 泾阳县| 永春县| 邵武市| 深州市| 禹州市| 邢台县| 曲阜市| 夏津县| 武定县| 斗六市|