91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

pytorch中優化器optimizer.param_groups用法的示例分析

發布時間:2021-05-31 14:26:06 來源:億速云 閱讀:3892 作者:小新 欄目:開發技術

小編給大家分享一下pytorch中優化器optimizer.param_groups用法的示例分析,希望大家閱讀完這篇文章之后都有所收獲,下面讓我們一起去探討吧!

optimizer.param_groups: 是長度為2的list,其中的元素是2個字典;

optimizer.param_groups[0]: 長度為6的字典,包括[‘amsgrad', ‘params', ‘lr', ‘betas', ‘weight_decay', ‘eps']這6個參數;

optimizer.param_groups[1]: 好像是表示優化器的狀態的一個字典;

import torch
import torch.optim as optimh3
w1 = torch.randn(3, 3)
w1.requires_grad = True
w2 = torch.randn(3, 3)
w2.requires_grad = True
o = optim.Adam([w1])
print(o.param_groups)
[{'amsgrad': False,
  'betas': (0.9, 0.999),
  'eps': 1e-08,
  'lr': 0.001,
  'params': [tensor([[ 2.9064, -0.2141, -0.4037],
           [-0.5718,  1.0375, -0.6862],
           [-0.8372,  0.4380, -0.1572]])],
  'weight_decay': 0}]
Per the docs, the add_param_group method accepts a param_group parameter that is a dict. Example of use:h3import torch
import torch.optim as optimh3
w1 = torch.randn(3, 3)
w1.requires_grad = True
w2 = torch.randn(3, 3)
w2.requires_grad = True
o = optim.Adam([w1])
print(o.param_groups)
givesh3[{'amsgrad': False,
  'betas': (0.9, 0.999),
  'eps': 1e-08,
  'lr': 0.001,
  'params': [tensor([[ 2.9064, -0.2141, -0.4037],
           [-0.5718,  1.0375, -0.6862],
           [-0.8372,  0.4380, -0.1572]])],
  'weight_decay': 0}]
nowh3o.add_param_group({'params': w2})
print(o.param_groups)
[{'amsgrad': False,
  'betas': (0.9, 0.999),
  'eps': 1e-08,
  'lr': 0.001,
  'params': [tensor([[ 2.9064, -0.2141, -0.4037],
           [-0.5718,  1.0375, -0.6862],
           [-0.8372,  0.4380, -0.1572]])],
  'weight_decay': 0},
 {'amsgrad': False,
  'betas': (0.9, 0.999),
  'eps': 1e-08,
  'lr': 0.001,
  'params': [tensor([[-0.0560,  0.4585, -0.7589],
           [-0.1994,  0.4557,  0.5648],
           [-0.1280, -0.0333, -1.1886]])],
  'weight_decay': 0}]
# 動態修改學習率
for param_group in optimizer.param_groups:
    param_group["lr"] = lr 
# 得到學習率optimizer.param_groups[0]["lr"] h3# print('查看optimizer.param_groups結構:')
# i_list=[i for i in optimizer.param_groups[0].keys()]
# print(i_list)    
['amsgrad', 'params', 'lr', 'betas', 'weight_decay', 'eps']

補充:pytorch中的優化器總結

以SGD優化器為例:

# -*- coding: utf-8 -*-
#@Time    :2019/7/3 22:31
#@Author  :XiaoMa
 
from torch import nn as nn
import torch as t
from torch.autograd import Variable as V
#定義一個LeNet網絡
class Net(nn.Module):
    def __init__(self):
        super(Net,self).__init__()
        self.features=nn.Sequential(
            nn.Conv2d(3,6,5),
            nn.ReLU(),
            nn.MaxPool2d(2,2),
            nn.Conv2d(6,16,5),
            nn.ReLU(),
            nn.MaxPool2d(2,3)
        )
        
        self.classifier=nn.Sequential(\
            nn.Linear(16*5*5,120),
            nn.ReLU(),
            nn.Linear(120,84),
            nn.ReLU(),
            nn.Linear(84,10)
            )
    def forward(self, x):
        x=self.features(x)
        x=x.view(-1,16*5*5)
        x=self.classifier(x)
        return x
net=Net()
 
from torch import optim #優化器
optimizer=optim.SGD(params=net.parameters(),lr=1)
optimizer.zero_grad()   #梯度清零,相當于net.zero_grad()
 
input=V(t.randn(1,3,32,32))
output=net(input)
output.backward(output)     #fake backward
optimizer.step()    #執行優化
 
#為不同子網絡設置不同的學習率,在finetune中經常用到
#如果對某個參數不指定學習率,就使用默認學習率
optimizer=optim.SGD(
    [{'param':net.features.parameters()},    #學習率為1e-5
    {'param':net.classifier.parameters(),'lr':1e-2}],lr=1e-5
)
 
#只為兩個全連接層設置較大的學習率,其余層的學習率較小
special_layers=nn.ModuleList([net.classifier[0],net.classifier[3]])
special_layers_params=list(map(id,special_layers.parameters()))
base_params=filter(lambda p:id(p) not in special_layers_params,net.parameters())
 
optimizer=t.optim.SGD([
    {'param':base_params},
    {'param':special_layers.parameters(),'lr':0.01}
],lr=0.001)

調整學習率主要有兩種做法。

一種是修改optimizer.param_groups中對應的學習率,另一種是新建優化器(更簡單也是更推薦的做法),由于optimizer十分輕量級,構建開銷很小,故可以構建新的optimizer。

但是新建優化器會重新初始化動量等狀態信息,這對使用動量的優化器來說(如自帶的momentum的sgd),可能會造成損失函數在收斂過程中出現震蕩。

如:

#調整學習率,新建一個optimizer
old_lr=0.1
optimizer=optim.SGD([
                {'param':net.features.parameters()},
                {'param':net.classifiers.parameters(),'lr':old_lr*0.5}],lr=1e-5)

看完了這篇文章,相信你對“pytorch中優化器optimizer.param_groups用法的示例分析”有了一定的了解,如果想了解更多相關知識,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

安丘市| 锡林浩特市| 将乐县| 鲁山县| 察雅县| 西充县| 涟源市| 鹤峰县| 隆化县| 东海县| 江华| 富平县| 桓台县| 杂多县| 长泰县| 宁南县| 吕梁市| 岗巴县| 襄汾县| 稷山县| 定南县| 茶陵县| 雷波县| 惠来县| 嘉鱼县| 信丰县| 郓城县| 金昌市| 乌恰县| 玛曲县| 紫金县| 柘城县| 石狮市| 高安市| 达拉特旗| 砀山县| 新晃| 通城县| 荣成市| 灵寿县| 平远县|