Pytorch:Dataset类和DataLoader类

embedded/2024/10/18 23:23:09/

文章目录

  • 一、Dataset 类
    • 1、定义
    • 2、示例
  • 二、DataLoader 类
    • 1、定义
    • 2、参数
    • 3、示例:使用 DataLoader
  • 三、总结
  • 四、实战
    • 1、load_data函数:
    • 2、IrisDataset类
    • 3、DataLoader 的使用

  在机器学习和深度学习框架中,尤其是在 PyTorch 中,DatasetDataLoader 是处理和加载数据的重要工具。这里我们详细探讨这两个类的结构、用途和如何实际使用它们。
  数据集(Dataset)是指存储和表示数据的类或接口。它通常用于封装数据,以便能够在机器学习任务中使用。数据集可以是任何形式的数据,比如图像、文本、音频等。数据集的主要目的是提供对数据的标准访问方法,以便可以轻松地将其用于模型训练、验证和测试。
  数据加载器(DataLoader)是一个提供批量加载数据的工具。它通过将数据集分割成小批量,并按照一定的顺序加载到内存中,以提高训练效率。数据加载器常用于训练过程中的数据预处理、批量化操作和数据并行处理等。

  • 他俩都在torch.utils.data
  • from torch.utils.data import Dataset,DataLoader

一、Dataset 类

1、定义

Dataset 是一个抽象类,用于表示一个数据集的全部内容。在 PyTorch 中,任何继承自 torch.utils.data.Dataset 的自定义数据集需要实现两个必须的方法:

  • __getitem__(self, index)
    • 这个方法应该返回一个索引处的数据点和其对应的标签。例如,在图像数据集中,这可能是一对(图像,标签)。
  • __len__(self)
    • 这个方法返回数据集中的数据点的总数,即数据集的大小。

2、示例

下面是一个简单的形象化例子,展示如何创建一个用于加载图像数据集的自定义 Dataset 类:

python">import torch
from torch.utils.data import Dataset
class IceCreamDataset(Dataset):def __init__(self):self.flavors = ["vanilla", "chocolate", "strawberry"]def __len__(self):return len(self.flavors)def __getitem__(self, index):return f"One scoop of {self.flavors[index]} ice cream"
ice_cream_menu = IceCreamDataset()

在这个例子中,IceCreamDataset 类定义了一个冰激凌数据。

二、DataLoader 类

1、定义

DataLoader 是一个迭代器,用于将 Dataset 封装成易于访问的数据流,支持批量加载和多进程数据加载等操作。

2、参数

  • dataset: 要加载的 Dataset 对象。
  • batch_size(可选): 每个批次加载的样本数量。即对Dataset数据集进行等分,分成的份数(每份叫作一个batch)为len(dataset)/batch_sizebatch_size通常是单次训练使用的数据量,默认为1。
  • shuffle(可选): 是否在每个训练周期开始时打乱数据。
  • num_workers(可选): 用于数据加载的进程数。

3、示例:使用 DataLoader

一旦定义了 Dataset,就可以使用 DataLoader 来有效地加载数据:

python">from torch.utils.data import DataLoader# 创建 DataLoader,每批三份不同口味的冰激凌
ice_cream_loader = DataLoader(ice_cream_menu)#等价于ice_cream_loader = DataLoader(ice_cream_menu,batch_size=1)for batch in ice_cream_loader:print(batch)

在这个例子中,data_loader 会自动管理从 dataset 中加载数据的复杂性,如批量加载、打乱顺序和多进程加载。
输出:

['One scoop of vanilla ice cream']
['One scoop of chocolate ice cream']
['One scoop of strawberry ice cream']
python">ice_cream_loader = DataLoader(ice_cream_menu,batch_size=2)

输出:

['One scoop of vanilla ice cream', 'One scoop of chocolate ice cream']
['One scoop of strawberry ice cream']
python">ice_cream_loader = DataLoader(ice_cream_menu,batch_size=3)#大于等于3的输出一样,因为就三个数据了
['One scoop of vanilla ice cream', 'One scoop of chocolate ice cream', 'One scoop of strawberry ice cream']

三、总结

通过组合使用 DatasetDataLoader,PyTorch 用户可以高效、灵活地处理大规模数据集。Dataset 提供了一个清晰的接口来访问单个数据点__getitem__),而 DataLoader 管理整个数据集的批量处理和并行加载,这两者的结合极大地简化了在训练深度学习模型时的数据处理工作。

为了简单说明,以下我们将继承Dataset类的类,说成Dataset
根据上述简单的例子,我们可以知道,Dataset可以用来导入数据集,并规定整个数据集的长度是如何计算的,并规定单个数据点的格式;而DataLoader配合Dataset使用,可以导入数据集,并规定该数据集划分的批次数量和批次大小,以及导入数据集时是否打乱数据等。


对于:

python">for batch in dataloader:pass

为了理解batchbatch_size,可以这样去想:
  假设有512个箱子,将这些箱子,每16个分成一份,一共有32份,每一份叫作一个batch,而每个batch里面一共16个箱子。每16个箱子为一批,一批一批进行拆箱,即一个batch一个batch进行处理。遍历dataloader,每次取出的是一个batch,从上面的例子可以发现,batch里面的元素是通过列表组织在一起的。

  每一个batch实际上就是DataLoaderDataset划分成的一个批次,每个batch的大小就是batch_size(除非数据集不是它的整数倍,上面也有体现)。所有batch加起来才构成整个Dataset
  如果是图片数据集,batch_size可以认为,一个batchbatch_size张图片(如果该数据集规定单个数据点是一张图片的话。)(因为DataLoader访问数据时,会按照Dataset规定的数据点规格访问)。

四、实战

以上是一个简单的实例,方便理解,现在我们进行实战。

python">import torch
from sklearn.datasets import load_iris
from torch.utils.data import Dataset, DataLoader# 此函数用于加载鸢尾花数据集
def load_data(shuffle=True):x = torch.tensor(load_iris().data)y = torch.tensor(load_iris().target)# 数据归一化x_min = torch.min(x, dim=0).valuesx_max = torch.max(x, dim=0).valuesx = (x - x_min) / (x_max - x_min)if shuffle:idx = torch.randperm(x.shape[0])x = x[idx]y = y[idx]return x, y# 自定义鸢尾花数据类
class IrisDataset(Dataset):def __init__(self, mode='train', num_train=120, num_dev=15):super(IrisDataset, self).__init__()x, y = load_data(shuffle=True)if mode == 'train':self.x, self.y = x[:num_train], y[:num_train]elif mode == 'dev':self.x, self.y = x[num_train:num_train + num_dev], y[num_train:num_train + num_dev]else:self.x, self.y = x[num_train + num_dev:], y[num_train + num_dev:]def __getitem__(self, idx):return self.x[idx], self.y[idx]def __len__(self):return len(self.x)batch_size = 16# 分别构建训练集、验证集和测试集
train_dataset = IrisDataset(mode='train')
dev_dataset = IrisDataset(mode='dev')
test_dataset = IrisDataset(mode='test')train_loader = DataLoader(train_dataset, batch_size=batch_size,shuffle=True)
dev_loader = DataLoader(dev_dataset, batch_size=batch_size)
test_loader = DataLoader(test_dataset, batch_size=1, shuffle=True)

这段代码涉及到使用 PyTorch 加载和处理著名的鸢尾花(Iris)数据集,并将其分成训练集、验证集和测试集。下面逐部分详细解释:

1、load_data函数:

  1. 加载数据:

    • 使用 load_iris() 函数从 scikit-learn 库中加载鸢尾花数据集。这个函数返回包含特征(data)和目标(target)的数据结构。
    • 数据转换成 PyTorch 张量,方便后续使用 PyTorch 进行操作。
  2. 归一化:

    • 对特征进行归一化处理,使得每个特征的值范围都缩放到 [0, 1] 区间。这是通过从每个特征中减去最小值,然后除以其范围(最大值 - 最小值)来实现的。
    • 归一化有助于模型训练,因为它确保了所有特征都在相同的尺度上,从而加速学习过程。
  3. 打乱数据:

    • 如果启用 shuffle,则通过生成一个随机排列的索引并重新排序数据来打乱数据集。这通常用于训练数据集,以保证每次训练的随机性和泛化能力。
    • 这里使用的方法:
      • idx = torch.randperm(x.shape[0])x.shape[0]是二维张量的行数。 torch.randperm即随机打乱(生成一个 0 到样本数量减一的随机排列),得到一个随机排列。
      • x = x[idx];y = y[idx],使用的是高级索引:使用多个整数索引访问多个元素

2、IrisDataset类

  • IrisDataset 类继承自 Dataset。它用于封装鸢尾花数据,使其可以通过 PyTorch DataLoader 使用。
  • 在构造函数中,根据 mode(训练、验证或测试)来划分数据:
    • 训练集 (train): 使用数据集的前 num_train 个样本。
    • 验证集 (dev): 紧随训练集之后的 num_dev 个样本。
    • 测试集 (test): 剩余的样本。
  • 这种方式的好处是简单易实现,但在实际应用中可能需要更复杂的交叉验证策略来更好地评估模型。

3、DataLoader 的使用

  • 对于每种数据集(训练、验证、测试),通过创建 DataLoader 实例来进行封装。这允许以批量方式加载数据,可选择是否打乱。
  • 批量大小 (batch_size):
    • 对于训练数据,使用较大的批量(例如 16),有助于稳定和加速训练过程。
    • 对于验证数据,也采用同样大小的批量,以保持一致性。
    • 对于测试数据,每批只有一个样本,这常用于评估模型时逐个样本进行处理。

http://www.ppmy.cn/embedded/20803.html

相关文章

数学与机器学习:共舞于智能时代的双璧

随着人工智能的崛起,机器学习作为其核心技术之一,正引领着新一轮的科技革命。而在这场革命中,数学以其深邃的理论和精妙的工具,为机器学习提供了坚实的支撑。数学与机器学习之间的关系,如同琴瑟和鸣,共同编…

如何我现在是本地的文件路径不是http,用html如何打开

--别给我BB 如何我现在是本地的文件架路径不是http,用html如何打开? 答: 如果你想在HTML中打开本地文件路径的视频,可以使用file://协议。假设你的视频文件在本地的路径为/path/to/your/video.mp4,那么你可以将src属性设置为file…

win安装vue并运行 vue-admin-template

1. Node Node.js是一个基于Chrome V8引擎的JavaScript运行时环境,用于构建高性能、可扩展的网络应用程序。它使得开发者能够在服务器端使用JavaScript编程,同时支持事件驱动、非阻塞I/O模型,适用于构建实时应用和高吞吐量的网络服务。 1.1 …

.NET高级面试指南专题二十九【备忘录模式介绍,用于需要撤销操作或在发生错误时恢复对象状态的情况】

备忘录模式是一种行为型设计模式,用于捕获对象的内部状态并在不破坏其封装性的情况下将其保存,以便稍后可以将对象恢复到先前的状态。这种模式通常用于需要撤销操作或在发生错误时恢复对象状态的情况。 原理 备忘录模式包含以下几个关键角色:…

GPT-SoVITS声音克隆训练和推理(新手教程,附整合包)

环境: Win10 专业版 GPT-SoVITS-0421 整合包 问题描述: GPT-SoVITS声音克隆如何训练和推理教程 解决方案: Zero-shot TTS: Input a 5-second vocal sample and experience instant text-to-speech conversion.零样本 TTS:输入 5 秒的人声样本并体验即时文本到语音转换…

K8s 使用 CephFS 作为后端存储(静态供给、动态供给)

一、K8s 使用 CephFS CephFS是 Ceph 中基于RADOS(可扩展分布式对象存储)构建,通过将文件数据划分为对象并分布到集群中的多个存储节点上来实现高可用性和可扩展性。 首先所有 k8s 节点都需要安装 ceph-common 工具: yum -y ins…

windows ubuntu sed,awk,grep篇:2:sed 替换命令

目录 6.sed 替换命令语法 7.全局标志 g 8.数字标志(1,2,3 ….) 9.打印标志 p(print) 10.写标志 w 11.忽略大小写标志 i (ignore) 12.执行命令标志 e (excuate) 13.使用替换标志组合 14.sed 替换命令分界符 15.单行内容上执行多个命令 16.&的作用——获取匹配到的模式 17.分…

云原生Service Mesh服务网格简单介绍

serviceMesh是什么 Service Mesh是一个用于处理服务间通信的基础设施层,旨在实现云原生应用复杂服务拓扑中的可靠请求传递。其基本构成是一组与应用一起部署的轻量级网络代理,这些代理对应用来说是透明的。Service Mesh通过统一的方式来控制和处理服务间…