91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何使用pytorch打印網絡回傳梯度

發布時間:2021-05-13 15:59:48 來源:億速云 閱讀:997 作者:Leah 欄目:開發技術

如何使用pytorch打印網絡回傳梯度?相信很多沒有經驗的人對此束手無策,為此本文總結了問題出現的原因和解決方法,通過這篇文章希望你能解決這個問題。

需求:

打印梯度,檢查網絡學習情況

net = your_network().cuda()
def train():
 ...
 outputs = net(inputs)
    loss = criterion(outputs, targets)
    loss.backward()
 for name, parms in net.named_parameters(): 
  print('-->name:', name, '-->grad_requirs:',parms.requires_grad, \
   ' -->grad_value:',parms.grad)
 ...

打印結果如下:

name表示網絡參數的名字; parms.requires_grad 表示該參數是否可學習,是不是frozen的; parm.grad 打印該參數的梯度值。

如何使用pytorch打印網絡回傳梯度

補充:pytorch的梯度計算

看代碼吧~

import torch
from torch.autograd import Variable
x = torch.Tensor([[1.,2.,3.],[4.,5.,6.]])  #grad_fn是None
x = Variable(x, requires_grad=True)
y = x + 2
z = y*y*3
out = z.mean()
#x->y->z->out
print(x)
print(y)
print(z)
print(out)
#結果:
tensor([[1., 2., 3.],
        [4., 5., 6.]], requires_grad=True)
tensor([[3., 4., 5.],
        [6., 7., 8.]], grad_fn=<AddBackward>)
tensor([[ 27.,  48.,  75.],
        [108., 147., 192.]], grad_fn=<MulBackward>)
tensor(99.5000, grad_fn=<MeanBackward1>)

若是關于graph leaves求導的結果變量是一個標量,那么gradient默認為None,或者指定為“torch.Tensor([1.0])”

若是關于graph leaves求導的結果變量是一個向量,那么gradient是不能缺省的,要是和該向量同緯度的tensor

out.backward()
print(x.grad)
#結果:
tensor([[3., 4., 5.],
        [6., 7., 8.]])
#如果是z關于x求導就必須指定gradient參數:
gradients = torch.Tensor([[2.,1.,1.],[1.,1.,1.]])
z.backward(gradient=gradients)
#若z不是一個標量,那么就先構造一個標量的值:L = torch.sum(z*gradient),再關于L對各個leaf Variable計算梯度
#對x關于L求梯度
x.grad
#結果:
tensor([[36., 24., 30.],
        [36., 42., 48.]])

錯誤情況

z.backward()
print(x.grad) 
#報錯:RuntimeError: grad can be implicitly created only for scalar outputs只能為標量創建隱式變量
    
x1 = Variable(torch.Tensor([[1.,2.,3.],[4.,5.,6.]])) 
x2 = Variable(torch.arange(4).view(2,2).type(torch.float), requires_grad=True)
c = x2.mm(x1)
c.backward(torch.ones_like(c))
# c.backward()
#RuntimeError: grad can be implicitly created only for scalar outputs
print(x2.grad)

pytorch的優點

1.PyTorch是相當簡潔且高效快速的框架;2.設計追求最少的封裝;3.設計符合人類思維,它讓用戶盡可能地專注于實現自己的想法;4.與google的Tensorflow類似,FAIR的支持足以確保PyTorch獲得持續的開發更新;5.PyTorch作者親自維護的論壇 供用戶交流和求教問題6.入門簡單

看完上述內容,你們掌握如何使用pytorch打印網絡回傳梯度的方法了嗎?如果還想學到更多技能或想了解更多相關內容,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

沈阳市| 陇西县| 那曲县| 射阳县| 鄂州市| 宣化县| 大新县| 马边| 广东省| 台中县| 凤阳县| 古丈县| 华亭县| 广宗县| 莱阳市| 洞口县| 美姑县| 平乐县| 舞阳县| 德州市| 资兴市| 宁波市| 景德镇市| 修武县| 奉新县| 彭泽县| 克什克腾旗| 嘉义县| 孝昌县| 寻甸| 丰都县| 宜丰县| 宕昌县| 韶山市| 皮山县| 永安市| 天全县| 无极县| 齐河县| 腾冲县| 锡林浩特市|