您好,登錄后才能下訂單哦!
本篇內容介紹了“python中怎么利用PyTorch進行回歸運算”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!
PyTorch中神經網絡的構建和Tensorflow的不一樣,它需要用一個類來進行構建(后面還可以用與Keras類似的Sequential模型構建),當然基礎還是用類構建,這個類需要繼承PyTorch中的神經網絡模型,torch.nn.Module,具體構建方式如下:
# 繼承torch.nn.Module模型 class Net(torch.nn.Module): # 重載初始化函數(我忘了這個是不是叫重載) def __init__(self, n_feature, n_hidden, n_output): super(Net, self).__init__() # Applies a linear transformation to the incoming data: :math:y = xA^T + b # 全連接層,公式為y = xA^T + b # 在初始化的同時構建兩個全連接層(也就是一個隱含層) self.hidden = torch.nn.Linear(n_feature, n_hidden) self.predict = torch.nn.Linear(n_hidden, n_output) # forward函數用于構建前向傳遞的過程 def forward(self, x): # 隱含層的輸出 hidden_layer = functional.relu(self.hidden(x)) # 實際的輸出 output_layer = self.predict(hidden_layer) return output_layer
該部分構建了一個含有一層隱含層的神經網絡,隱含層神經元個數為n_hidden。
在建立了上述的類后,就可以通過如下函數建立神經網絡:
net = Net(n_feature=1, n_hidden=10, n_output=1)
optimizer用于構建模型的優化器,與tensorflow中優化器的意義相同,PyTorch的優化器在前綴為torch.optim的庫中。
優化器需要傳入net網絡的參數。
具體使用方式如下:
# torch.optim是優化器模塊 # Adam可以改成其它優化器,如SGD、RMSprop等 optimizer = torch.optim.Adam(net.parameters(), lr=1e-3)
loss用于定義神經網絡訓練的損失函數,常用的損失函數是均方差損失函數(回歸)和交叉熵損失函數(分類)。
具體使用方式如下:
# 均方差lossloss_func = torch.nn.MSELoss()
訓練過程分為三個步驟:
1、利用網絡預測結果。
prediction = net(x)
2、利用預測的結果與真實值對比生成loss。
loss = loss_func(prediction, y)
3、進行反向傳遞(該部分有三步)。
# 均方差loss # 反向傳遞步驟 # 1、初始化梯度 optimizer.zero_grad() # 2、計算梯度 loss.backward() # 3、進行optimizer優化 optimizer.step()
這是一個簡單的回歸預測模型。
import torch from torch.autograd import Variable import torch.nn.functional as functional import matplotlib.pyplot as plt import numpy as np # x的shape為(100,1) x = torch.from_numpy(np.linspace(-1,1,100).reshape([100,1])).type(torch.FloatTensor) # y的shape為(100,1) y = torch.sin(x) + 0.2*torch.rand(x.size()) class Net(torch.nn.Module): def __init__(self, n_feature, n_hidden, n_output): super(Net, self).__init__() # Applies a linear transformation to the incoming data: :math:y = xA^T + b # 全連接層,公式為y = xA^T + b self.hidden = torch.nn.Linear(n_feature, n_hidden) self.predict = torch.nn.Linear(n_hidden, n_output) def forward(self, x): # 隱含層的輸出 hidden_layer = functional.relu(self.hidden(x)) output_layer = self.predict(hidden_layer) return output_layer # 類的建立 net = Net(n_feature=1, n_hidden=10, n_output=1) # torch.optim是優化器模塊 optimizer = torch.optim.Adam(net.parameters(), lr=1e-3) # 均方差loss loss_func = torch.nn.MSELoss() for t in range(1000): prediction = net(x) loss = loss_func(prediction, y) # 反向傳遞步驟 # 1、初始化梯度 optimizer.zero_grad() # 2、計算梯度 loss.backward() # 3、進行optimizer優化 optimizer.step() if t & 50 == 0: print("The loss is",loss.data.numpy())
運行結果為:
The loss is 0.27913737
The loss is 0.2773982
The loss is 0.27224126
…………
The loss is 0.0035993527
The loss is 0.0035974088
The loss is 0.0035967692
“python中怎么利用PyTorch進行回歸運算”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。