【深度学习代码调试5】标准化数据集:TensorFlow Datasets (TFDS)自动化数据加载与预处理

server/2024/10/25 8:18:14/

【标准化数据集】TensorFlow Datasets、TFDS:自动化数据加载与预处理

  • 写在最前面
      • 1. 什么是 TensorFlow Datasets (TFDS)?
        • 主要特点:
      • 2. TFDS 的核心 API:`tfds.builder` 和 `download_and_prepare`
        • `tfds.builder`:创建数据集构建器
          • 示例:
        • `download_and_prepare`:下载与准备数据集
          • 示例:
      • 3. TFDS 常见的可选参数
        • `tfds.builder` 可选参数:
        • `download_and_prepare` 可选参数:
          • 示例:自定义下载路径和下载模式
      • 4. DownloadConfig:更高级的下载控制
        • `DownloadConfig` 主要参数:
          • 示例:
      • 5. 完整示例:加载 Caltech101 数据集
      • 6. 总结

在这里插入图片描述


请添加图片描述

🌈你好呀!我是 是Yu欸
🌌 2024每日百字篆刻时光,感谢你的陪伴与支持 ~
🚀 欢迎一起踏上探险之旅,挖掘无限可能,共同成长!

写在最前面

版权声明:本文为原创,遵循 CC 4.0 BY-SA 协议。转载请注明出处。

在机器学习和深度学习项目中,数据的准备和预处理是极其重要的一环。然而,处理各种格式的数据集通常是一个耗时且容易出错的过程。为此,TensorFlow Datasets (TFDS) 提供了一个简化、自动化的数据集加载与预处理解决方案。本文将全面介绍 TFDS 的功能和使用方法,并展示如何使用 tfds.builderdownload_and_prepare 处理数据集。

在这里插入图片描述

请添加图片描述


1. 什么是 TensorFlow Datasets (TFDS)?

TensorFlow Datasets (TFDS) 是一个为机器学习模型提供标准化数据集的库。它不仅支持 TensorFlow,也可以与其他框架(例如 PyTorch)一起使用。TFDS 提供了一个一致的 API 来访问广泛的标准数据集,同时支持自动下载、预处理和缓存。

TFDS 的核心目标是减少数据集准备的繁琐操作,帮助用户专注于模型开发,而不是数据处理。无论是图像、文本、时间序列还是其他类型的数据,TFDS 都可以帮助快速加载和处理。

主要特点:
  • 自动下载与缓存:通过简单的命令即可自动下载、解压并缓存数据集。
  • 标准化数据集格式:所有数据集都统一处理为 tf.data.Dataset,便于与 TensorFlow API 兼容。
  • 丰富的数据集库:涵盖了常见的机器学习任务数据集,如 CIFAR、ImageNet、COCO、MNIST 等。
  • 数据集拆分:自动将数据集分为训练集、验证集和测试集,并提供了一致的 API 来访问这些部分。

2. TFDS 的核心 API:tfds.builderdownload_and_prepare

TFDS 提供了两个主要的方法来加载和准备数据集:tfds.builderdownload_and_prepare。这两个方法的配合使用,极大地简化了数据集的加载流程。

tfds.builder:创建数据集构建器

tfds.builder 用于根据数据集名称创建一个数据集构建器对象。这个构建器对象可以控制数据集的下载、预处理和加载。

示例:
python">import tensorflow_datasets as tfdsdata_dir = "/path/to/data"
dataset_builder = tfds.builder("caltech101:3.*.*", data_dir=data_dir)
  • "caltech101:3.*.*" 表示使用 Caltech101 数据集的版本 3.x.x。
  • data_dir 参数用于指定数据的存储位置。如果未指定,数据将被下载到默认路径 ~/tensorflow_datasets/
download_and_prepare:下载与准备数据集

创建数据集构建器后,您可以使用 download_and_prepare() 方法来自动下载并准备数据集。这一方法不仅会下载数据,还会对数据进行解压、预处理并转换为标准的 TensorFlow 格式。

示例:
python">dataset_builder.download_and_prepare()
  • 该方法会自动下载数据集,并将其转换为 TFRecord 格式,以便后续加载时能够高效读取。
  • 如果数据集已经下载并准备完毕,则会跳过下载步骤,直接从缓存中加载。

3. TFDS 常见的可选参数

tfds.builderdownload_and_prepare 支持多个可选参数,以便您可以自定义数据集的处理行为。

tfds.builder 可选参数:
  • dataset_name:数据集的名称和版本号,例如 "caltech101:3.*.*"
  • data_dir:指定数据存储路径。
  • builder_kwargs:一些额外的构建参数。例如,某些数据集允许选择不同的子集或模式。
download_and_prepare 可选参数:
  • download_dir:指定数据集的下载临时存储路径。
  • download_config:自定义下载过程,可以通过 tfds.download.DownloadConfig 控制解压路径、手动下载路径等。
  • compute_stats:是否重新计算数据集的统计信息。
  • max_examples_per_split:限制每个数据集拆分中的最大示例数,通常用于调试。
  • try_gcs:是否优先从 Google Cloud Storage 下载数据。
示例:自定义下载路径和下载模式
python">from tensorflow_datasets.core.download import DownloadConfigconfig = DownloadConfig(extract_dir='/tmp/tfds_extract',  # 数据解压路径manual_dir='/path/to/manual/data',  # 手动下载文件路径download_mode='reuse_dataset_if_exists'  # 如果数据集已存在则跳过下载
)dataset_builder.download_and_prepare(download_config=config)

4. DownloadConfig:更高级的下载控制

DownloadConfig 提供了更精细的控制下载过程的选项,例如手动下载路径、解压路径以及下载模式。您可以使用 DownloadConfig 对象来自定义数据集的下载方式。

DownloadConfig 主要参数:
  • extract_dir:指定解压路径。
  • manual_dir:某些数据集由于版权原因无法自动下载,需要手动下载并指定路径。
  • download_mode:下载模式,例如 'reuse_dataset_if_exists'(如果数据集存在则跳过下载)或 'force_rebuild'(强制重新下载和解压)。
  • register_checksums:是否注册文件校验和。
示例:
python">config = DownloadConfig(extract_dir='/path/to/extracted_data',manual_dir='/path/to/manual_data',download_mode='force_rebuild'  # 强制重新下载
)
dataset_builder.download_and_prepare(download_config=config)

5. 完整示例:加载 Caltech101 数据集

结合以上内容,下面是一个完整的示例,用于加载和处理 Caltech101 数据集:

python">import tensorflow_datasets as tfds
from tensorflow_datasets.core.download import DownloadConfig# 指定数据存储路径
data_dir = "/path/to/data"# 创建 Caltech101 数据集构建器
dataset_builder = tfds.builder("caltech101:3.*.*", data_dir=data_dir)# 定义下载配置
config = DownloadConfig(extract_dir='/tmp/tfds_extract',download_mode='reuse_dataset_if_exists'
)# 下载并准备数据集
dataset_builder.download_and_prepare(download_config=config)# 加载数据集
dataset = dataset_builder.as_dataset(split='train')

6. 总结

TensorFlow Datasets 是一个强大的数据集处理工具,提供了简单一致的接口来下载、预处理和加载数据集。通过使用 tfds.builderdownload_and_prepare,您可以轻松地自动化数据集的处理过程,减少了手动处理数据的繁琐工作。TFDS 支持丰富的数据集库,并且可以通过灵活的可选参数来自定义数据下载和预处理过程,非常适合快速原型开发和大规模模型训练。

如果您在机器学习项目中需要标准化数据集,TFDS 将是一个不可或缺的工具。


hello,我是 是Yu欸 。如果你喜欢我的文章,欢迎三连给我鼓励和支持:👍点赞 📁 关注 💬评论,我会给大家带来更多有用有趣的文章。
原文链接 👉 ,⚡️更新更及时。

欢迎大家添加好友交流。


http://www.ppmy.cn/server/134655.html

相关文章

KubeSphere

初始密码 Account: admin Password: P88w0rd ansible部署 选一台master 节点 --- - hosts: k8s_mastersbecome: yestasks:- name: Install Gitpackage:name: gitstate: present- name: Download Helmget_url:url: https://get.helm.sh/helm-v3.16.2-linux-amd64.tar.gzdest: …

软工毕设开题建议

文章目录 🚩 1 前言1.1 选题注意事项1.1.1 难度怎么把控?1.1.2 题目名称怎么取? 1.2 开题选题推荐1.2.1 起因1.2.2 核心- 如何避坑(重中之重)1.2.3 怎么办呢? 🚩2 选题概览🚩 3 项目概览题目1 : 深度学习社…

问:MySQL表过大,你有哪些优化实践?

当MySQL单表记录数过大时,数据库的CRUD(创建、读取、更新、删除)性能会明显下降。为了提升性能,我们需要采取一些优化措施。本文将详细介绍几种常见的优化方案。 1. 限定数据的范围 描述 务必禁止不带任何限制数据范围条件的查…

华为ICT题库-大数据部分

1475、以下哪项组件不属于大数据平台中的组件?(云服务考点) (A)MapReduce (B)Yarn (C) openStack (D)HDFS 答案:C 解析:组件OpenStack不属于大数据平台中的组件。OpenStack是一个开源的云计算平台,它提供…

sql获取时间差

MySQL SELECT TIMESTAMPDIFF(HOUR, 2023-10-01 12:00:00, 2023-10-02 15:30:00) AS hours_difference; PostgreSQL //EXTRACT(EPOCH FROM (2023-10-02 15:30:00::timestamp - 2023-10-01 12:00:00::timestamp)) // 获取的是两个时间相差的秒数,在此基础上除3600获…

windows环境下vscode编写c语言连接mysql

创建一个文件夹test02 在文件夹中创建test.c文件 用vscode打开test02文件夹 自动生成tasks.json和launch.json文件,需要安装这里通C/C Runner插件来自动生成json文件和一些文件夹。 接下来配置mysql 本地已经安装了mysql数据库,此安装过程省略。 有…

logdata-anomaly-miner:一款安全日志解析与异常检测工具

关于logdata-anomaly-miner logdata-anomaly-miner是一款安全日志解析与异常检测工具,该工具旨在以有限的资源和尽可能低的权限运行分析,以使其适合生产服务器使用。 为了确保 logdata-anomaly-miner的正常运行,推荐安装了python > 3.6的…

如何构建一个支持GPU的Llamafile容器

用CPU玩那些大型的语言模型确实挺有意思的,但看着电脑一个字一个字地慢慢显示结果,那股兴奋劲儿很快就过去了。让这些语言模型软件在GPU上跑起来可能会有点麻烦,因为这得看你的系统和硬件支不支持。我这篇文章就是想告诉你,怎么在…