RP2K:一个面向细粒度图像的大规模零售商品数据集

devtools/2025/1/8 11:58:20/

        这是一种用于细粒度图像分类的新的大规模零售产品数据集。与以往专注于相对较少产品的数据集不同,我们收集了2000多种不同零售产品的35万张图像,这些图像直接在真实的零售商店的货架上拍摄。我们的数据集旨在推进零售对象识别的研究,该研究具有大量应用,如自动货架审计和基于图像的产品信息检索。我们的实验表明,即使是最先进的细粒度分类方法也没有优于简单的ResNet基线,这表明在细粒度零售产品分类任务上,提高分类性能的研究还有很大的潜在空间。我们的数据集具有以下特性:(1)就产品类别而言,它是迄今为止最大的数据集。(2)所有图像都是在自然照明的实体零售店中手动拍摄的,符合真实的应用场景。 (3)我们为每个对象提供丰富的注释,包括大小,形状和口味/气味。我们相信我们的数据集可以使计算机视觉研究和零售业受益。

数据集的示例图像:

RP2K的数据收集渠道:

不同元分类的样本图像:((top)按产品类型分类;(底部)按产品形状分类

带有属性信息的示例:

数据下载RP2K链接 – 品览科技icon-default.png?t=O83Ahttps://www.pinlandata.com/rp2k_dataset

平台地址:Dataset - rp2k - OpenI - 启智AI开源社区提供普惠算力!rp2k - RP2K数据集收录了50万+张零售商品货架图片icon-default.png?t=O83Ahttps://openi.pcl.ac.cn/thomas-yanxin/rp2k/datasets

 下载文件示例:


http://www.ppmy.cn/devtools/148885.html

相关文章

多模态论文笔记——U-ViT(国内版DiT)

大家好,这里是好评笔记,公主号:Goodnote,专栏文章私信限时Free。本文详细介绍U-ViT的模型架构和实验细节,虽然没有后续的DiT在AIGC领域火爆,但为后来的研究奠定了基础,但其开创性的探索值得学习…

算法练习01

一、题目 给定一个整数数组 nums 和一个整数目标值target,请你在该数组 中找出 和为目标值 target 的那 两个整数,并返回它们的数组下标。 你可以假设每种输入只会对应一个答案,并且你不能使用两次相同的元素。 你可以按任意顺序返回答案。…

恒功率反激式控制器 CRE6281G

CRE6281G 为高性能多模式 PWM 反激式控制器,CRE6281G特征有:  内置软启动功能  CRE6281G内置线电压补偿(OCP)  内置斜坡补偿  改善电磁干扰的智能抖频技术  超低启动电流  高杂讯抗干扰能力  多模式控制  CRE6281G恒功率输出…

极客说|微软 Phi 系列小模型和多模态小模型

作者:胡平 - 微软云人工智能高级专家 「极客说」 是一档专注 AI 时代开发者分享的专栏,我们邀请来自微软以及技术社区专家,带来最前沿的技术干货与实践经验。在这里,您将看到深度教程、最佳实践和创新解决方案。关注「极客说」&am…

期末概率论总结提纲(仅适用于本校,看文中说明)

文章目录 说明A选择题1.硬币2.两个事件的关系 与或非3.概率和为14.概率密度 均匀分布5.联合分布率求未知参数6.联合分布率求未知参数7.什么是统计量(记忆即可)8.矩估计量9.117页12题10.显著水平阿尔法(背公式就完了) 判断题11.事件…

LLM加速方法,Adapter Tuning和Prompt Tuning的区别及原理举例

LLM加速方法 目录 LLM加速方法整体结构各分支内容Adapter Tuning和Prompt Tuning的区别及原理举例一、区别二、总结整体结构 基于模型微调、基于模型压缩、基于分布式并行处理。 各分支内容 基于模型微调: 包含Adapter Tuning、Prompt Tuning、LoRA三个子类别。这些技术主要…

甘肃省乡镇界arcgis格式shp数据乡镇名称和编码下载内容测评

标题中的“甘肃省乡镇界arcgis格式shp数据乡镇名称和编码2020年最新”表明这是一份关于甘肃省乡镇行政边界的地理信息数据。这些数据以Esri公司的GIS(地理信息系统)软件ArcGIS所支持的SHP(Shapefile)格式提供,并且包含…

linux 设置mysql 外网访问

1、修改 MySQL 配置文件 找到并编辑配置文件:在Linux系统中,MySQL的配置文件通常是/etc/mysql/my.cnf,使用命令sudo vim /etc/mysql/my.cnf打开文件。 注释或修改 bindaddress:找到bindaddress 127.0.0.1,将其注释掉…