91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Pytorch損失函數nn.NLLLoss2d()用法是什么

發布時間:2020-07-08 11:13:08 來源:億速云 閱讀:683 作者:清晨 欄目:開發技術

小編給大家分享一下Pytorch損失函數nn.NLLLoss2d()用法是什么,希望大家閱讀完這篇文章后大所收獲,下面讓我們一起去探討吧!

最近做顯著星檢測用到了NLL損失函數

對于NLL函數,需要自己計算log和softmax的概率值,然后從才能作為輸入

輸入 [batch_size, channel , h, w]

Pytorch損失函數nn.NLLLoss2d()用法是什么

目標 [batch_size, h, w]

輸入的目標矩陣,每個像素必須是類型.舉個例子。第一個像素是0,代表著類別屬于輸入的第1個通道;第二個像素是0,代表著類別屬于輸入的第0個通道,以此類推。

x = Variable(torch.Tensor([[[1, 2, 1],
       [2, 2, 1],
       [0, 1, 1]],
       [[0, 1, 3],
       [2, 3, 1],
       [0, 0, 1]]]))

x = x.view([1, 2, 3, 3])
print("x輸入", x)

這里輸入x,并改成[batch_size, channel , h, w]的格式。

soft = nn.Softmax(dim=1)

log_soft = nn.LogSoftmax(dim=1)

然后使用softmax函數計算每個類別的概率,這里dim=1表示從在1維度

上計算,也就是channel維度。logsoftmax是計算完softmax后在計算log值

Pytorch損失函數nn.NLLLoss2d()用法是什么

手動計算舉個栗子:第一個元素

Pytorch損失函數nn.NLLLoss2d()用法是什么

y = Variable(torch.LongTensor([[1, 0, 1],
       [0, 0, 1],
       [1, 1, 1]]))

y = y.view([1, 3, 3])

輸入label y,改變成[batch_size, h, w]格式

loss = nn.NLLLoss2d()
out = loss(x, y)
print(out)

輸入函數,得到loss=0.7947

來手動計算

第一個label=1,則 loss=-1.3133

第二個label=0, 則loss=-0.3133

.
…
…
loss= -(-1.3133-0.3133-0.1269-0.6931-1.3133-0.6931-0.6931-1.3133-0.6931)/9 =0.7947222222222223

是一致的

注意:這個函數會對每個像素做平均,每個batch也會做平均,這里有9個像素,1個batch_size。

補充知識:PyTorch:NLLLoss2d

我就廢話不多說了,大家還是直接看代碼吧~

import torch
import torch.nn as nn
from torch import autograd
import torch.nn.functional as F
 
inputs_tensor = torch.FloatTensor([
[[2, 4],
 [1, 2]],
[[5, 3],
 [3, 0]],
[[5, 3],
 [5, 2]],
[[4, 2],
 [3, 2]],
 ])
inputs_tensor = torch.unsqueeze(inputs_tensor,0)
# inputs_tensor = torch.unsqueeze(inputs_tensor,1)
print '--input size(nBatch x nClasses x height x width): ', inputs_tensor.shape
 
targets_tensor = torch.LongTensor([
 [0, 2],
 [2, 3]
])
 
targets_tensor = torch.unsqueeze(targets_tensor,0)
print '--target size(nBatch x height x width): ', targets_tensor.shape
 
inputs_variable = autograd.Variable(inputs_tensor, requires_grad=True)
inputs_variable = F.log_softmax(inputs_variable)
targets_variable = autograd.Variable(targets_tensor)
 
loss = nn.NLLLoss2d()
output = loss(inputs_variable, targets_variable)
print '--NLLLoss2d: {}'.format(output)

看完了這篇文章,相信你對Pytorch損失函數nn.NLLLoss2d()用法是什么有了一定的了解,想了解更多相關知識,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

绥滨县| 翼城县| 达州市| 浠水县| 新野县| 嘉祥县| 崇礼县| 进贤县| 论坛| 丹江口市| 西盟| 秭归县| 宁河县| 灌阳县| 太仆寺旗| 浦北县| 松桃| 嵊泗县| 商水县| 清镇市| 潞城市| 阿巴嘎旗| 鄄城县| 汕头市| 连州市| 水城县| 永丰县| 进贤县| 南和县| 腾冲县| 太康县| 财经| 大渡口区| 富阳市| 花莲县| 剑阁县| 二连浩特市| 扶余县| 石景山区| 安徽省| 贵州省|