91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

pytorch讀取自制數據集的示例分析

發布時間:2021-05-31 12:55:27 來源:億速云 閱讀:186 作者:小新 欄目:開發技術

小編給大家分享一下pytorch讀取自制數據集的示例分析,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

問題1

問題描述:

TypeError: default_collate: batch must contain tensors, numpy arrays, numbers, dicts or lists; found <class 'PIL.Image.Image'>

解決方式

數據格式不對, 把image轉成tensor,參數transform進行如下設置就可以了:transform=transform.ToTensor()。注意檢測一下transform

問題2

問題描述:

TypeError: append() takes exactly one argument (2 given)

出現問題的地方

imgs.append(words[0], int(words[1]))

解決方式

加括號,如下

imgs.append((words[0], int(words[1])))

問題3

問題描述

RuntimeError: Input type (torch.cuda.FloatTensor) and weight type (torch.FloatTensor) should be the same

解決方式

數據和模型不在同一設備上,應該要么都在GPU運行,要么都在CPU

問題4

問題描述

RuntimeError: Given groups=1, weight of size [64, 1, 3, 3], expected input[1, 3, 512, 512] to have 1 channels, but got 3 channels instead

解決方式

圖像竟然是RGB,但我的訓練圖像是一通道的灰度圖,所以得想辦法把 mode 轉換成灰度圖L

補充:神經網絡 pytorch 數據集讀取(自動讀取數據集,手動讀取自己的數據)

對于pytorch,我們有現成的包裝好的數據集可以使用,也可以自己創建自己的數據集,大致來說有三種方法,這其中用到的兩個包是datasets和DataLoader

datasets:用于將數據和標簽打包成數據集

DataLoader:用于對數據集的高級處理,比如分組,打亂,處理等,在訓練和測試中可以直接使用DataLoader進行處理

第一種 現成的打包數據集

這種比較簡答,只需要現成的幾行代碼和一個路徑就可以完成,但是一般都是常用比如cifar-10

pytorch讀取自制數據集的示例分析

對于常用數據集,可以使用torchvision.datasets直接進行讀取,這是對其常用的處理,該類也是繼承于torch.utils.data.Dataset。

#是第一次運行的話會下載數據集 現成的話可以使用root參數指定數據集位置
# 存放的格式如下圖
 
# 根據接口讀取默認的CIFAR10數據 進行訓練和測試
#預處理
transform = transform.Compose([transform.ToTensor(), transform.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])
#讀取數據集
trainset = torchvision.datasets.CIFAR10(root='./data', train=True, download=False, transform=transform)
#打包成DataLoader
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4, shuffle=True, num_workers=1)
 
#同上
testset = torchvision.datasets.CIFAR10(root='./data', train=False, download=False, transform=transform)
testloader = torch.utils.data.DataLoader(trainset, batch_size=4, shuffle=False, num_workers=1)
classes = (1,2,3,4,5,6,7,8,9,10)  #類別定義
 
#使用
 for epoch in range(3):
        running_loss = 0.0 #清空loss
        for i, data in enumerate(trainloader, 0):
            # get the inputs
            inputs, labels = data #trainloader返回:id,image,labels
 
            # 將inputs與labels裝進Variable中
            inputs, labels = Variable(inputs), Variable(labels)
            
            #使用print代替輸出
            print("epoch:", epoch, "的第", i, "個inputs", inputs.data.size(), "labels", labels.data.size())

pytorch讀取自制數據集的示例分析

第二種 自己的圖像分類

這也是一個方便的做法,在pytorch中提供了torchvision.datasets.ImageFolder讓我們訓練自己的圖像。

要求:創建train和test文件夾,每個文件夾下按照類別名字存儲圖像就可以實現dataloader

這里還是拿上個舉例子吧,實際上也可以是我們的數據集

pytorch讀取自制數據集的示例分析

每個下面的布局是這樣的

pytorch讀取自制數據集的示例分析

# 預處理
transform = transform.Compose([transform.ToTensor(), transform.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])
 
#使用torchvision.datasets.ImageFolder讀取數據集 指定train 和 test文件夾
img_data = torchvision.datasets.ImageFolder('data/cifar-10/train/', transform=transform)
data_loader = torch.utils.data.DataLoader(img_data, batch_size=4, shuffle=True, num_workers=1)
 
testset = torchvision.datasets.ImageFolder('data/cifar-10/test/', transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=4, shuffle=True, num_workers=1)
 
 for epoch in range(3):
        for i, data in enumerate(trainloader, 0):
            # get the inputs
            inputs, labels = data #trainloader返回:id,image,labels
            # 將inputs與labels裝進Variable中
            inputs, labels = Variable(inputs), Variable(labels)
 
            #使用print代替輸出
            print("epoch:", epoch, "的第", i, "個inputs", inputs.data.size(), "labels", labels.data.size())

第三種 一維向量數據集

這個是比較尷尬的,首先我們

假設將數存儲到txt等文件中,先把他讀取出來,讀取的部分就不仔細說了,讀到一個列表里就可以

常用的可以是列表等,舉例子

trainlist = []  # 保存特征的列表
 
targetpath = 'a/b/b'
filelist = os.listdir(targetpath) #列出文件夾下所有的目錄與文件
filecount = len(filelist)
# 根據根路徑 讀取所有文件名 循環讀取文件內容 添加到list
for i in range(filecount):
     filepath = os.path.join(targetpath, filelist[j])
     with open(filepath, 'r') as f:
         line = f.readline()
         # 例如存儲格式為 1,2,3,4,5,6 數字之間以逗號隔開
         templist = list(map(int, line.split(',')))
         trainlist.append(templist)
 
# 數據讀取完畢 現在為維度為filecount的列表 我們需要轉換格式和類型
# 將數據轉換為Tensor
 
# 假如我們的兩類數據分別存在list0 和 list1中
split = len(list0) # 用于記錄標簽的分界
 
#使用numpy.array 和 torch.from_numpy 連續將其轉換為tensor  使用torch.cat拼接
train0_numpy = numpy.array(list0)
train1_numpy = numpy.array(list1)
train_tensor = torch.cat([torch.from_numpy(train0_numpy), torch.from_numpytrain1_numpy)], 0)
#現在的尺寸是【樣本數,長度】 然而在使用神 經網絡處理一維數據要求【樣本數,維度,長度】
# 這個維度指的像一個圖像實際上是一個二維矩陣 但是有三個RGB通道 實際就為【3,行,列】 那么需要處理三個矩陣
# 我們需要在我們的數據中加上這個維度信息
# 注意類型要一樣 可以轉換
shaper = train_tensor.shape  #獲取維度 【樣本數,長度】
aa = torch.ones((shaper[0], 1, shaper[1])) # 生成目標矩陣
for i in range(shaper[0]):  # 將所有樣本復制到新矩陣
·    aa[i][0][:] = train_tensor[i][:]
train_tensor = aa  # 完成了數據集的轉換 【樣本數,維度,長度】
 
# 注 意 如果是讀取的圖像 我們需要的目標維度是【樣本數,維度,size_w,size_h】
# 卷積接受的輸入是這樣的四維度 最后的兩個是圖像的尺寸 維度表示是通道數量 
  
# 下面是生成標簽 標簽注意類別之間的分界 split已經在上文計算出來
# 訓練標簽的
total = len(list0) + len(list1)
train_label = numpy.zeros(total)
train_label[split+1:total] = 1
train_label_tensor = torch.from_numpy(train_label).int()
# print(train_tensor.size(),train_label_tensor.size())
 
# 搭建dataloader完畢
train_dataset = TensorDataset(train_tensor, train_label_tensor)
train_loader = DataLoader(dataset=train_dataset, batch_size=4, shuffle=True)
 
for epoch in range(3):
    for i, data in enumerate(trainloader, 0):
        # get the inputs
        inputs, labels = data #trainloader返回:id,image,labels
        # 將inputs與labels裝進Variable中
        inputs, labels = Variable(inputs), Variable(labels)
 
        #使用print代替輸出
        print("epoch:", epoch, "的第", i, "個inputs", inputs.data.size(), "labels", labels.data.size())

第四種 保存路徑和標簽的方式創建數據集

該方法需要略微的麻煩一些,首先你有一個txt,保存了文件名和對應的標簽,大概是這個意思

pytorch讀取自制數據集的示例分析

然后我們在程序中,根據給定的根目錄找到文件,并將標簽對應保存

class Dataset(object):
"""An abstract class representing a Dataset.
All other datasets should subclass it. All subclasses should override
``__len__``, that provides the size of the dataset, and ``__getitem__``,
supporting integer indexing in range from 0 to len(self) exclusive.
"""
def __getitem__(self, index):
	raise NotImplementedError
def __len__(self):
	raise NotImplementedError
def __add__(self, other):
	return ConcatDataset([self, other])

這是dataset的原本內容,getitem就是獲取元素的部分,用于返回對應index的數據和標簽。那么大概需要做的是我們將txt的內容讀取進來,使用程序處理標簽和數據

# coding: utf-8
from PIL import Image
from torch.utils.data import Dataset
class MyDataset(Dataset):
# 初始化讀取txt 可以設定變換
def __init__(self, txt_path, transform = None, target_transform = None):
	fh = open(txt_path, 'r')
	imgs = []
	for line in fh:
		line = line.rstrip()
		words = line.split()
         # 保存列表 其中有圖像的數據 和標簽
		imgs.append((words[0], int(words[1])))
		self.imgs = imgs 
		self.transform = transform
		self.target_transform = target_transform
def __getitem__(self, index):
	fn, label = self.imgs[index]
	img = Image.open(fn).convert('RGB') 
	if self.transform is not None:
		img = self.transform(img) 
    # 返回圖像和標簽
    
	return img, label
def __len__(self):
	return len(self.imgs)
 
# 當然也可以創建myImageFloder 其txt格式在下圖顯示 
import os
import torch
import torch.utils.data as data
from PIL import Image 
def default_loader(path):
    return Image.open(path).convert('RGB')
 
class myImageFloder(data.Dataset):
    def __init__(self, root, label, transform = None, target_transform=None, loader=default_loader):
        fh = open(label) #打開label文件
        c=0
        imgs=[]  # 保存圖像的列表
        class_names=[]
        for line in  fh.readlines(): #讀取每一行數據
            if c==0:
                class_names=[n.strip() for n in line.rstrip().split('	')] 
            else:
                cls = line.split() #分割為列表
                fn = cls.pop(0)  #彈出最上的一個
                if os.path.isfile(os.path.join(root, fn)):  # 組合路徑名 讀取圖像
                    imgs.append((fn, tuple([float(v) for v in cls])))  #添加到列表
            c=c+1
 
        # 設置信息
        self.root = root
        self.imgs = imgs
        self.classes = class_names
        self.transform = transform
        self.target_transform = target_transform
        self.loader = loader
 
    def __getitem__(self, index):  # 獲取圖像 給定序號
        fn, label = self.imgs[index]  #讀取圖像的內容和對應的label
        img = self.loader(os.path.join(self.root, fn))
        if self.transform is not None:  # 是否變換
            img = self.transform(img)
        return img, torch.Tensor(label) # 返回圖像和label
 
    def __len__(self):
        return len(self.imgs)
    
    def getName(self):
        return self.classes
#

pytorch讀取自制數據集的示例分析

# 而后使用的時候就可以正常的使用
trainset = MyDataset(txt_path=pathFile,transform = None, target_transform = None)
# trainset = torch.utils.data.DataLoader(myFloder.myImageFloder(root = "../data/testImages/images", label = "../data/testImages/test_images.txt", transform = mytransform ), batch_size= 2, shuffle= False, num_workers= 2)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=32, shuffle=True, num_workers=8)

它的要點是,繼承dataset,在初始化中處理txt文本數據,保存對應的數據,并實現對應的功能。

這其中的原理就是如此,但是注意可能有些許略微不恰當的地方,可能就需要到時候現場調試了。

以上是“pytorch讀取自制數據集的示例分析”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

大冶市| 库伦旗| 吉安市| 米易县| 湟源县| 榆中县| 松原市| 莎车县| 云和县| 深泽县| 双柏县| 达拉特旗| 犍为县| 柏乡县| 漳州市| 天峻县| 大宁县| 祁门县| 双流县| 广东省| 台北市| 游戏| 乌什县| 孟连| 潍坊市| 卫辉市| 南宁市| 琼结县| 个旧市| 富源县| 英山县| 平远县| 连州市| 沁源县| 清苑县| 长沙市| 神农架林区| 上犹县| 大同市| 新宁县| 疏勒县|