91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python中的Pytorch建模流程是什么

發布時間:2022-03-03 13:36:59 來源:億速云 閱讀:179 作者:小新 欄目:開發技術

小編給大家分享一下python中的Pytorch建模流程是什么,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

一般我們訓練神經網絡有以下步驟:

  • 導入庫

  • 設置訓練參數的初始值

  • 導入數據集并制作數據集

  • 定義神經網絡架構

  • 定義訓練流程

  • 訓練模型

以下,我就將上述步驟使用代碼進行注釋講解:

1 導入庫

import torch
from torch import nn
from torch.nn import functional as F
from torch import optim
from torch.utils.data import DataLoader, DataLoader
import torchvision
import torchvision.transforms as transforms

2 設置初始值

# 學習率
lr = 0.15
# 優化算法參數
gamma = 0.8
# 每次小批次訓練個數
bs = 128
# 整體數據循環次數
epochs = 10

3 導入并制作數據集

本次我們使用FashionMNIST圖像數據集,每個圖像是一個28*28的像素數組,共有10個衣物類別,比如連衣裙、運動鞋、包等。

注:初次運行下載需要等待較長時間。

# 導入數據集
mnist = torchvision.datasets.FashionMNIST(
    root = './Datastes'
    , train = True
    , download = True
    , transform = transforms.ToTensor())
    
# 制作數據集
batchdata = DataLoader(mnist
                       , batch_size = bs
                       , shuffle = True
                       , drop_last = False)

我們可以對數據進行檢查:

for x, y in batchdata:
    print(x.shape)
    print(y.shape)
    break

# torch.Size([128, 1, 28, 28])
# torch.Size([128])

可以看到一個batch中有128個樣本,每個樣本的維度是1*28*28。

之后我們確定模型的輸入維度與輸出維度:

# 輸入的維度
input_ = mnist.data[0].numel()
# 784

# 輸出的維度
output_ = len(mnist.targets.unique())
# 10

4 定義神經網絡架構

先使用一個128個神經元的全連接層,然后用relu激活函數,再將其結果映射到標簽的維度,并使用softmax進行激活。

# 定義神經網絡架構
class Model(nn.Module):
    def __init__(self, in_features, out_features):
        super().__init__()
        self.linear1 = nn.Linear(in_features, 128, bias = True)
        self.output = nn.Linear(128, out_features, bias = True)
    
    def forward(self, x):
        x = x.view(-1, 28*28)
        sigma1 = torch.relu(self.linear1(x))
        sigma2 = F.log_softmax(self.output(sigma1), dim = -1)
        return sigma2

5 定義訓練流程

在實際應用中,我們一般會將訓練模型部分封裝成一個函數,而這個函數可以繼續細分為以下幾步:

  • 定義損失函數與優化器

  • 完成向前傳播

  • 計算損失

  • 反向傳播

  • 梯度更新

  • 梯度清零

在此六步核心操作的基礎上,我們通常還需要對模型的訓練進度、損失值與準確度進行監視。

注釋代碼如下:

# 封裝訓練模型的函數
def fit(net, batchdata, lr, gamma, epochs):
# 參數:模型架構、數據、學習率、優化算法參數、遍歷數據次數

    # 5.1 定義損失函數
    criterion = nn.NLLLoss()
    # 5.1 定義優化算法
    opt = optim.SGD(net.parameters(), lr = lr, momentum = gamma)
    
    # 監視進度:循環之前,一個樣本都沒有看過
    samples = 0
    # 監視準確度:循環之前,預測正確的個數為0
    corrects = 0
    
    # 全數據訓練幾次
    for epoch in range(epochs):
        # 對每個batch進行訓練
        for batch_idx, (x, y) in enumerate(batchdata):
            # 保險起見,將標簽轉為1維,與樣本對齊
            y = y.view(x.shape[0])
            
            # 5.2 正向傳播
            sigma = net.forward(x)
            # 5.3 計算損失
            loss = criterion(sigma, y)
            # 5.4 反向傳播
            loss.backward()
            # 5.5 更新梯度
            opt.step()
            # 5.6 梯度清零
            opt.zero_grad()
            
            # 監視進度:每訓練一個batch,模型見過的數據就會增加x.shape[0]
            samples += x.shape[0]
            
            # 求解準確度:全部判斷正確的樣本量/已經看過的總樣本量
            # 得到預測標簽
            yhat = torch.max(sigma, -1)[1]
            # 將正確的加起來
            corrects += torch.sum(yhat == y)
            
            # 每200個batch和最后結束時,打印模型的進度
            if (batch_idx + 1) % 200 == 0 or batch_idx == (len(batchdata) - 1):
                # 監督模型進度
                print("Epoch{}:[{}/{} {: .0f}%], Loss:{:.6f}, Accuracy:{:.6f}".format(
                    epoch + 1
                    , samples
                    , epochs*len(batchdata.dataset)
                    , 100*samples/(epochs*len(batchdata.dataset))
                    , loss.data.item()
                    , float(100.0*corrects/samples)))

6 訓練模型

# 設置隨機種子
torch.manual_seed(51)

# 實例化模型
net = Model(input_, output_)

# 訓練模型
fit(net, batchdata, lr, gamma, epochs)
# Epoch2:[25600/600000  4%], Loss:0.524430, Accuracy:69.570312
# Epoch2:[51200/600000  9%], Loss:0.363422, Accuracy:74.984375
# ......
# Epoch20:[600000/600000  100%], Loss:0.284664, Accuracy:85.771835

現在我們已經用Pytorch訓練了最基礎的神經網絡,并且可以查看其訓練成果。大家可以將代碼復制進行運行!

雖然沒有用到復雜的模型,但是我們在每次建模時的基本思想都是一致的

以上是“python中的Pytorch建模流程是什么”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

连城县| 大英县| 香格里拉县| 金山区| 平山县| 长武县| 赣州市| 剑川县| 齐齐哈尔市| 丰台区| 莱西市| 吴旗县| 和田县| 新巴尔虎右旗| 正镶白旗| 宜州市| 镇坪县| 新津县| 中西区| 岑溪市| 绥德县| 定州市| 大庆市| 临夏市| 北宁市| 马边| 洱源县| 吉林省| 榆林市| 贵定县| 库尔勒市| 财经| 申扎县| 永新县| 泽普县| 宣汉县| 阜城县| 商丘市| 聂荣县| 根河市| 漳平市|