一篇文章快速认识YOLO11 | 关键改进点 | 安装使用 | 模型训练和推理

server/2024/10/9 6:02:01/

前言

本文分享YOLO11关键改进点、性能对比、安装使用模型训练推理等内容。

YOLO11 是 Ultralytics 最新的实时目标检测器,凭借更高的精度、速度和效率重新定义了可能性。

除了传统的目标检测外,YOLO11 还支持目标跟踪、实例分割、姿态估计、OBB定向物体检测(旋转目标检测)等视觉任务。

一、分析YOLO11关键改进点

YOLO11 相比之前版本,带来了五大关键改进:

  1. 增强特征提取:通过改进骨干网络和颈部架构,提升了目标检测的精度。
  2. 优化效率和速度:重新设计了架构,优化了训练流程,提高了处理速度。
  3. 更高精度与更少参数YOLO11m 在 COCO 数据集上实现更高 mAP,且参数减少 22%。
  4. 多环境适应性:支持边缘设备、云平台和 NVIDIA GPU。
  5. 广泛任务支持:支持检测、实例分割、分类、姿态估计和旋转目标检测。

深入分析 YOLO11 的几个关键特性:

  • 增强特征提取YOLO11 通过重新设计主干网络和颈部网络(Backbone 和 Neck),提高了从图像中提取特征的能力。这个改进使得 YOLO11 在复杂任务(如多目标检测、遮挡处理等)中表现得更为出色。特征提取的效率直接影响目标的精确定位和分类,新的架构优化提升了检测的敏感度和准确度。

  • 速度与效率优化YOLO11 采用了更高效的架构和训练流程,保持高精度的同时提升了处理速度。

  • 更高精度,参数更少YOLO11 的一个亮点在于它在减少了模型参数的情况下,依然能实现较高的精度。相较于 YOLOv8m,YOLO11m 在 COCO 数据集上的 mAP 提升了,且参数减少了 22%。 即:YOLO11 在减少计算资源消耗的同时,依然能够保持或提高检测性能。特别是在资源受限的设备上,如边缘计算设备或低功耗的嵌入式系统,这种高效性显得尤为重要。

  • 适应性强YOLO11 支持多种环境,包括边缘设备、云平台,甚至是移动端。结合 NVIDIA GPU 的支持,它能够在不同的硬件环境中无缝运行。

  • 支持多种任务:除了传统的目标检测外,YOLO11 还支持目标跟踪、实例分割、姿态估计、OBB定向物体检测(旋转目标检测)、物体分类等视觉任务。

二、YOLO11性能对比

相比之前版本,它在架构和训练方法上有显著改进,提升了整体性能。(感觉提升并不大)

在下方的图表中,展示了 YOLO11 与其他 YOLO 版本(如 YOLOv10、YOLOv9 等)在延迟与检测精度(mAP)上的对比。

YOLO11 在平衡延迟和精度方面表现更优异,适用于广泛的计算机视觉任务,尤其是需要高效推理的场景。

此外,YOLO11 的改进使其在较低计算资源下也能保持高性能,适合边缘设备或云端推理使用。

三、YOLO11支持种视觉多任务

YOLO11支持种视觉多任务,如下表格所示:

包括目标检测、实例分割、姿态估计、OBB定向物体检测(旋转目标检测)、物体分类。

模型细分权重参数任务名称InferenceValidationTrainingExport
YOLO11

yolo11n.pt、 

yolo11s.pt、

yolo11m.pt 、

yolo11l.pt、

yolo11x.pt

Detection
YOLO11-seg

yolo11n-seg.pt、

 yolo11s-seg.pt、 

yolo11m-seg.pt、

 yolo11l-seg.pt 、

yolo11x-seg.pt

Instance Segmentation
YOLO11-pose

yolo11n-pose.pt 、

yolo11s-pose.pt 、

yolo11m-pose.pt 、

yolo11l-pose.pt 、

yolo11x-pose.pt

Pose/Keypoints
YOLO11-obb

yolo11n-obb.pt 、

yolo11s-obb.pt、

 yolo11m-obb.pt 、

yolo11l-obb.pt、

 yolo11x-obb.pt

Oriented Detection
YOLO11-cls

yolo11n-cls.pt 、

yolo11s-cls.pt

yolo11m-cls.pt 、

yolo11l-cls.pt 、

yolo11x-cls.pt

Classification

每种任务都有专门的模型文件(如 yolo11n.pt, yolo11m-seg.pt 等),支持推理、验证、训练和导出功能。

我们可以根据具体的任务需求,在不同场景中灵活部署 YOLO11,比如检测任务使用 YOLO11,而分割任务则可以使用 YOLO11-seg。

  • YOLO11:用于经典的目标检测任务。
  • YOLO11-seg:用于实例分割,识别和分割图像中的对象。
  • YOLO11-pose:用于姿态估计,即确定人体的关键点(如关节位置)。
  • YOLO11-obb:用于定向检测,可以识别并确定具有方向性物体的边界框(例如倾斜的目标物体)。
  • YOLO11-cls:用于分类,负责对图像中的对象进行类别识别。

四、安装YOLO11

官方默认的安装方式是:通过运行 pip install ultralytics 来快速安装 Ultralytics 包。

Ultralytics包中会有YOLO11,同时也包含了多种模型,很方便调用的:

  • YOLOv10、YOLOv9、YOLOv8、YOLOv7、YOLOv6、YOLOv5、YOLOv4 、YOLOv3
  • YOLO-World、Realtime Detection Transformers (RT-DETR)、YOLO-NAS
  • Fast Segment Anything Model (FastSAM)、Mobile Segment Anything Model (MobileSAM)
  • Segment Anything Model 2 (SAM2)、Segment Anything Model (SAM)

安装要求

  • Python 版本要求:Python 版本需为 3.8 及以上,支持 3.8、3.9、3.10、3.11、3.12 这些版本。
  • PyTorch 版本要求:需要 PyTorch 版本不低于 1.8。

安装命令

  • 安装 Ultralytics 包可以使用 pip 命令
  • 这将会自动安装所有必要的依赖项和包
    pip install ultralytics

成功安装,如下图所示:

  • 推荐使用清华源进行加速安装
    pip install ultralytics -i https://pypi.tuna.tsinghua.edu.cn/simple/

使用from ultralytics import YOLO,测试一下ultralytics是否安装成功了

>>> 

>>> from ultralytics import YOLO
Creating new Ultralytics Settings v0.0.6 file ✅ 
View Ultralytics Settings with 'yolo settings' or at '/home/liguopu/.config/Ultralytics/settings.json'
Update Settings with 'yolo settings key=value', i.e. 'yolo settings runs_dir=path/to/dir'. For help see https://docs.ultralytics.com/quickstart/#ultralytics-settings.
>>> 

或在用下面的代码:

from ultralytics import settings
from ultralytics import YOLO# View all settings
print(settings)# Return a specific setting
value = settings["runs_dir"]
print(value)

其他的安装方式,可以参考:

  • Conda:使用 Conda 环境来安装。参考这里https://anaconda.org/conda-forge/ultralytics
  • Docker:使用 Docker 容器进行安装。参考这里https://hub.docker.com/r/ultralytics/ultralytics
  • Git:从 Git 仓库克隆进行安装。参考这里https://docs.ultralytics.com/quickstart/#conda-docker-image

五、快速体验YOLO11

示例1:使用Ultralytics YOLO模型对图像进行目标检测

示例代码,如下所示: 

from ultralytics import YOLO# 加载预训练的YOLOv11n模型
model = YOLO("yolo11n.pt")# 对'bus.jpg'图像进行推理,并获取结果
results = model.predict("bus.jpg", save=True, imgsz=320, conf=0.5)# 处理返回的结果
for result in results:boxes = result.boxes       # 获取边界框信息probs = result.probs       # 获取分类概率result.show()              # 显示结果
  • save=True:指定是否保存推理后的结果图像。如果设为True,则推理后的图像会自动保存。
  • imgsz=320:指定推理时图像的尺寸。此处设置为320像素,这影响模型在推理时输入图像的大小。较小的图像尺寸通常会加快推理速度,但可能会影响结果的精度。
  • conf=0.5:设置置信度阈值。只有置信度大于或等于0.5的检测结果才会显示。
  • 通过返回的 results 对象进行进一步的处理,如显示、提取边界框信息或分类概率。

详细参考:Predict - Ultralytics YOLO Docs

 示例2:使用Ultralytics YOLO模型对图像进行推理(多任务)

思路流程

  • 加载模型:预先训练好的YOLOv11n模型通过YOLO('yolo11n.pt')加载。
  • 运行推理:使用model()方法图像进行推理,并返回Results对象的列表(当stream=False时)。
  • 处理推理结果:通过遍历Results对象列表,可以访问每个结果中的边界框、分割掩码、关键点、分类概率等信息。

返回结果

  • 结果类型:返回的Results对象包含了各种类型的输出,如检测边界框(boxes)、分割掩码(masks)、关键点(keypoints)、分类概率(probs)等。
  • 图像展示与保存:可以直接显示结果图像(result.show()),也可以将其保存为文件(result.save())。

示例代码,如下所示: 

from ultralytics import YOLO# 加载模型
model = YOLO('yolo11n.pt')  # 加载预训练的YOLOv11n模型# 对单张图像进行推理
result = model("image1.jpg")  # 返回单个Results对象# 处理结果
boxes = result.boxes       # 边界框结果
masks = result.masks       # 分割掩码结果
keypoints = result.keypoints  # 关键点检测结果
probs = result.probs       # 分类概率结果
obb = result.obb           # 方向边界框结果(OBB)result.show()              # 显示结果
result.save(filename="result.jpg")  # 保存结果到磁盘

示例3:在COCO8数据集上训练YOLOv11n模型

YOLO模型加载方式:(三种方法可选择)

  • 可以通过yaml文件(如yolo11n.yaml)从头构建一个新模型。
  • 也可以加载预训练的模型(如yolo11n.pt)。
  • 或者先构建模型再加载预训练的权重。

训练设置

  • 使用model.train()方法进行训练,指定数据集、训练轮数(epochs)为100,图像大小为640。
  • device参数可以指定是否使用GPU或CPU进行训练,如果没有指定,将自动选择可用的GPU,否则使用CPU。 

示例代码,如下所示: 

from ultralytics import YOLO# 加载模型
# model = YOLO('yolo11n.yaml')  # 从YAML文件构建一个新模型
# model = YOLO('yolo11n.pt')    # 加载预训练模型(推荐用于训练)
model = YOLO('yolo11n.yaml').load('yolo11n.pt')  # 从YAML文件构建模型并加载预训练权重# 训练模型
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)  # 指定数据集、训练轮数为100,图像大小为640

 

示例4:在多GPU环境下进行训练

多GPU训练

  • 通过指定多个GPU设备的ID来分配训练任务。例如,device=[0, 1] 表示使用第0和第1号GPU进行训练。
  • 这可以有效利用硬件资源,将训练任务分布到多个GPU上,从而提高训练效率。

示例代码,如下所示: 

from ultralytics import YOLO# 加载模型
model = YOLO('yolo11n.pt')  # 加载预训练模型(推荐用于训练)# 使用2个GPU进行训练
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, device=[0, 1])

详细参考:https://docs.ultralytics.com/modes/train/#train-settings

六、YOLO不同版本总结

1. YOLOv3:

  • 核心改进:YOLOv3 是 YOLO 系列的第三代,由 Joseph Redmon 于 2018 年发布,标志着 YOLO 从原始的单尺度检测进化到多尺度检测。YOLOv3 通过引入多个特征层来改善对小物体的检测能力,使用了具有残差连接的 Darknet-53 作为主干网络。
  • 性能提升:相较于 YOLOv2,YOLOv3 的召回率和精度显著提升,特别是在检测小物体时表现更好。通过多尺度特征融合技术,YOLOv3 在保持实时检测速度的同时,提升了对多种物体大小的检测能力。

2. YOLOv4:

  • 优化技术:YOLOv4 由 Alexey Bochkovskiy 于 2020 年发布。它在 YOLOv3 的基础上引入了多项改进,包括 CSPDarknet53 作为主干网络,使用了 Mosaic 数据增强、CIoU 损失函数、SPP(Spatial Pyramid Pooling)等技术。
  • 适应性增强:YOLOv4 在速度和精度之间找到了更好的平衡,通过引入改进的训练策略,使其更适合在低计算资源环境中运行(例如嵌入式设备)。它能够在各种 GPU 上更高效地工作,而无需过度依赖昂贵的硬件。

3. YOLOv5

  • 开发背景:YOLOv5 由 Ultralytics 团队发布,尽管命名延续了 YOLOv4,但它并未基于 Darknet 框架,而是完全重写为 PyTorch 实现。与前代不同,YOLOv5 大幅提升了易用性和跨平台兼容性,并进一步降低了部署复杂度。
  • 模型规模:YOLOv5 提供了多个规模的模型(small、medium、large 等),用户可以根据需求在速度与精度之间做出权衡。Ultralytics 还加入了自动化数据增强和超参数优化,进一步提高了训练的效率和模型性能。

4. YOLOv6

  • 行业应用:YOLOv6 是由美团发布的目标检测模型,特别针对自动化场景进行了优化。它的开发目的是在无人配送机器人等场景中使用,因此它对计算效率和内存占用的优化极为关键。
  • 技术特点:YOLOv6 在速度和精度上比 YOLOv5 提升显著,尤其是在美团的实际场景中,展示了良好的表现。它结合了轻量级的模型设计和针对推理优化的架构,使得在嵌入式设备上运行更加高效。

5. YOLOv7:

  • 创新突破:YOLOv7 是 YOLOv4 作者团队在 2022 年发布的更新版本,它引入了更为高效的网络结构设计,进一步降低了推理的延迟时间。YOLOv7 采用了跨阶段部分连接 (CSP) 技术,能够更好地平衡模型计算量和准确度。
  • 广泛适应性:该模型适用于从服务器到边缘设备的多种硬件配置,并在 COCO 数据集上的性能超越了其他大多数目标检测模型,尤其在轻量级模型场景中表现优异。

6. YOLOv8:

  • 功能扩展:YOLOv8 是 YOLO 系列中功能最为丰富的版本,具备实例分割、姿态估计和分类等多种能力。相比于之前的 YOLO 版本,它的任务范围更加广泛,进一步提升了模型的可用性。
  • 多任务支持:YOLOv8 提供了丰富的任务支持,包括实例分割(即不仅检测物体的边界框,还要对物体进行精确的像素级分割)、关键点检测和姿态估计。这使其在复杂场景下具有更强的应用潜力。

7. YOLOv9:

  • 实验性特性:YOLOv9 是基于 YOLOv5 代码库的实验性模型,主要引入了可编程梯度信息(PGI)优化技术。PGI 通过对模型训练过程中梯度的灵活控制,提升了训练效率,减少了模型过拟合的风险。
  • 未来方向:虽然 YOLOv9 目前仍处于实验阶段,但其在研究领域内显示了进一步提升 YOLO 模型训练速度和精度的潜力,尤其是在快速动态场景下的检测任务。

8. YOLOv10:

  • NMS-Free 设计:YOLOv10 由清华大学发布,它的最大特色是引入了无 NMS(Non-Maximum Suppression)训练策略,能够有效消除冗余检测框的影响,从而提高检测精度。
  • 性能优化:该版本专注于提高推理速度,减少了传统 NMS 在后处理阶段的计算开销。YOLOv10 的高效架构设计进一步优化了检测模型的效率与准确率之间的平衡。

9. YOLOv11:

  • 最新进展:YOLOv11 是 Ultralytics 最新发布的版本,被设计为跨多个任务实现最先进性能(SOTA)的检测模型。该版本对之前模型的架构进行了优化,使得其在不同任务(如目标检测、分割、姿态估计等)中达到了最前沿的水平。
  • 多任务处理能力:YOLOv11 能够处理从目标检测到多模态任务的广泛应用场景,特别针对现实场景中的复杂检测需求进行了进一步优化,使得其成为当前最具前瞻性的模型之一。

 

六、YOLO11代码浅析

首先看看YOLO11在目标检测任务的配置文件,yolo11.yaml

能看到模型的架构、关键组件和配置参数。

# Ultralytics YOLO 🚀, AGPL-3.0 license
# YOLO11 object detection model with P3-P5 outputs. For Usage examples see https://docs.ultralytics.com/tasks/detect# Parameters
nc: 80 # number of classes
scales: # model compound scaling constants, i.e. 'model=yolo11n.yaml' will call yolo11.yaml with scale 'n'# [depth, width, max_channels]n: [0.50, 0.25, 1024] # summary: 319 layers, 2624080 parameters, 2624064 gradients, 6.6 GFLOPss: [0.50, 0.50, 1024] # summary: 319 layers, 9458752 parameters, 9458736 gradients, 21.7 GFLOPsm: [0.50, 1.00, 512] # summary: 409 layers, 20114688 parameters, 20114672 gradients, 68.5 GFLOPsl: [1.00, 1.00, 512] # summary: 631 layers, 25372160 parameters, 25372144 gradients, 87.6 GFLOPsx: [1.00, 1.50, 512] # summary: 631 layers, 56966176 parameters, 56966160 gradients, 196.0 GFLOPs# YOLO11n backbone
backbone:# [from, repeats, module, args]- [-1, 1, Conv, [64, 3, 2]] # 0-P1/2- [-1, 1, Conv, [128, 3, 2]] # 1-P2/4- [-1, 2, C3k2, [256, False, 0.25]]- [-1, 1, Conv, [256, 3, 2]] # 3-P3/8- [-1, 2, C3k2, [512, False, 0.25]]- [-1, 1, Conv, [512, 3, 2]] # 5-P4/16- [-1, 2, C3k2, [512, True]]- [-1, 1, Conv, [1024, 3, 2]] # 7-P5/32- [-1, 2, C3k2, [1024, True]]- [-1, 1, SPPF, [1024, 5]] # 9- [-1, 2, C2PSA, [1024]] # 10# YOLO11n head
head:- [-1, 1, nn.Upsample, [None, 2, "nearest"]]- [[-1, 6], 1, Concat, [1]] # cat backbone P4- [-1, 2, C3k2, [512, False]] # 13- [-1, 1, nn.Upsample, [None, 2, "nearest"]]- [[-1, 4], 1, Concat, [1]] # cat backbone P3- [-1, 2, C3k2, [256, False]] # 16 (P3/8-small)- [-1, 1, Conv, [256, 3, 2]]- [[-1, 13], 1, Concat, [1]] # cat head P4- [-1, 2, C3k2, [512, False]] # 19 (P4/16-medium)- [-1, 1, Conv, [512, 3, 2]]- [[-1, 10], 1, Concat, [1]] # cat head P5- [-1, 2, C3k2, [1024, True]] # 22 (P5/32-large)- [[16, 19, 22], 1, Detect, [nc]] # Detect(P3, P4, P5)

再看看其他任务,比如实例分割 yolo11-seg.yaml

其实主干网络和特征融合部分都是一样的,只是检测头部分有区别

目标检测用Detect,实例分割用Segment

这里也有YOLOv10、YOLOv9、YOLOv8、YOLOv7、YOLOv6、YOLOv5、YOLOv4 、YOLOv3版本的,可以看看对比一下

不得不说,Ultralytics 的工程很方便我们进行开发

分享完成~


http://www.ppmy.cn/server/129129.html

相关文章

【算法】- 查找 - 多路查找树(B树)

文章目录 前言一、多路查找树(B树)二、2-3树的查找2-3树查找代码 三、2-3树的插入2-3树代码 2-3树代码总结 前言 上次我们学了如何用平衡二叉树来插入和查找。这些算法都是在内存中进行,若我们要操作的数据非常大,大到内存没办法处…

无人机高精度地形测量技术详解!

一、无人机技术 无人机作为搭载各种高精度传感器的平台,能够在不同高度和角度进行灵活飞行,覆盖各种复杂地形和环境,实现地表信息的全方位获取。 二、高精度传感器技术 GPS/GLONASS等卫星定位系统:无人机通过卫星定位系统实现高…

聚观早报 | 苹果重磅更新;OpenAI推出ChatGPT Canvas

聚观早报每日整理最值得关注的行业重点事件,帮助大家及时了解最新行业动态,每日读报,就读聚观365资讯简报。 整理丨Cutie 10月1日消息 苹果重磅更新 OpenAI推出ChatGPT Canvas Meta发布Movie Gen iQOO 13影像规格曝光 华为HarmonyOS N…

S2B2C商城如何保证系统安全

前言 S2B2C商城系统通过一系列安全措施来保证系统的安全性,确保用户数据和交易信息的安全。以下是对这些安全措施的详细解析: 一、数据安全 加密技术:采用先进的加密技术和安全防范措施,保护用户数据和交易信息的安全&#xff…

MySql表结构设计

创建 create table 表名(字段1 字段类型 [约束] [comment 字段1注释],...) [comment 表注释];约束是作用于表中字段上的规则,用于限制存储在表中的数据。它的目的是保证数据库中数据的正确性、有效性和完整性。 约束描述关键字非空约束限制该字段不能为nullnot nu…

JavaEE一条龙学习----前端体系介绍(一)

随着AI技术的发展,人工智能大模型百花齐放,使得一些简单但耗时,复杂但重复的业务功能慢慢的交由人工智能完成,这对IT行业产生极大冲击,在其中,前端的唱衰人人可见,这使得后端程序员为了生计不得…

【ubuntu】修改用户名、主机名、主文件夹名、登录名、密码

目录 1.他们是什么 2.修改方法 2.1 修改用户密码 2.2 修改主机名 2.2.1 切换到root用户 2.2.2 修改名称 2.3 修改用户名 主文件夹名 登录名 2.2.1 sudoers 2.2.2 passwd 2.2.3 shadow 2.2.4 group 2.2.5 修改主文件夹名 3.重启 1.他们是什么 (1&#xf…

刷题训练之解决 FloodFill 算法

> 作者:დ旧言~ > 座右铭:松树千年终是朽,槿花一日自为荣。 > 目标:熟练掌握解决 FloodFill 算法。 > 毒鸡汤:学习,学习,再学习 ! 学,然后知不足。 > 专栏选自&#…