我是靠谱客的博主 酷酷山水,最近开发中收集的这篇文章主要介绍RabbitMQ概念及注意点#,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

构建Dataset子类
下面我们构建一下Dataset的子类,叫他MyDataset类:

import torch
from torch.utils.data import Dataset,DataLoader

class MyDataset(Dataset):
def init(self):
self.data = torch.tensor([[1,2,3],[2,3,4],[3,4,5],[4,5,6]])
self.label = torch.LongTensor([1,1,0,0])

def __getitem__(self,index):
return self.data[index],self.label[index]
def __len__(self):
return len(self.data)

2.1 Init
初始化中,一般是把数据直接保存在这个类的属性中。像是self.data,self.label
2.2 getitem
index是一个索引,这个索引的取值范围是要根据__len__这个返回值确定的,在上面的例子中,__len__的返回值是4,所以这个index会在0,1,2,3这个范围内。
3 dataloader
从上文中,我们知道了MyDataset这个类中的__getitem__的返回值,应该是某一个样本的数据和标签(如果是测试集的dataset,那么就只返回数据),在梯度下降的过程中,一般是需要将多个数据组成batch,这个需要我们自己来组合吗?不需要的,所以PyTorch中存在DataLoader这个迭代器(这个名词用的准不准确有待考究)。

继续上面的代码,我们接着写代码:

mydataloader = DataLoader(dataset=mydataset,
batch_size=1)
我们现在创建了一个DataLoader的实例,并且把之前实例化的mydataset作为参数输入进去,并且还输入了batch_size这个参数,现在我们使用的batch_size是1.下面来用for循环来遍历这个dataloader:

for i,(data,label) in enumerate(mydataloader):
print(data,label)
输出结果是:

意料之中的结果,总共输出了4个batch,每个batch都是只有1个样本(数据+标签),值得注意的是,这个输出过程是顺序的。

我们稍微修改一下上面的DataLoader的参数:

mydataloader = DataLoader(dataset=mydataset,
batch_size=2,
shuffle=True)

for i,(data,label) in enumerate(mydataloader):
print(data,label)
结果是:

可以看到每一个batch内出现了2个样本。假如我们再运行一遍上面的代码,得到:

两次结果不同,这是因为shuffle=True,dataset中的index不再是按照顺序从0到3了,而是乱序,可能是[0,1,2,3],也可能是[2,3,1,0]。

【个人感想】

Dataloader和Dataset两个类是非常方便的,因为这个可以快速的做出来batch数据,修改batch_size和乱序都非常地方便。有下面两个希望注意的地方:

一般标签值应该是Long整数的,所以标签的tensor可以用torch.LongTensor(数据)或者用.long()来转化成Long整数的形式。
如果要使用PyTorch的GPU训练的话,一般是先判断cuda是否可用,然后把数据标签都用to()放到GPU显存上进行GPU加速。
device = ‘cuda’ if torch.cuda.is_available() else ‘cpu’
for i,(data,label) in enumerate(mydataloader):
data = data.to(device)
label = label.to(device)
print(data,label)
Absorbing material: www.goodsmaterial.com

最后

以上就是酷酷山水为你收集整理的RabbitMQ概念及注意点#的全部内容,希望文章能够帮你解决RabbitMQ概念及注意点#所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(33)

评论列表共有 0 条评论

立即
投稿
返回
顶部