论文地址:https://arxiv.org/pdf/2301.05586.pdf
开源地址:https://github.com/meituan/YOLOv6
YOLOv6 v3.0的主要贡献简述如下:
- 对检测器的Neck部件进行了翻新,引入BiC(Bi-directional Concatenation)提供更精确的定位信息;将SPPF简化为SimCSPSPPF,牺牲较少的速度提升更多的性能
- 提出一种AAT(Anchor-aided training)策略,在不影响推理效率的情况下同时受益于Anchor-basedAnchor-free设计理念
- 对YOLOv6的Backbone与Neck进行加深,在更高分辨率输入下达成新的SOTA性能
- 提出一种新的自蒸馏策略提升YOLOv6小模型的性能,训练阶段采用更大的DFL作为增强版辅助回归分支
实现思路
Network Design
在网络架构方面,本文主要从Neck与SPP两个维度进行改进
- 在Neck方面,本文设计了一种增强的PAN模块,它次用BiC模块对三个近邻层特征进行集成, 这种处理截止可以保留更精确的定位信息,对于小目标定位非常重要
- 在SPP方面,本文对YOLOv5 v6.1版本的SPPF进行了简化,得到了所谓的SimCSPSPPF
Anchor-Aided Training
YOLOv6是一种追求更高推理速度的Anchor-free检测器
然而,作者发现,在同等配置(YOLOv6-N)下
相比Anchor-free方案,Anchor-based方案可以带来额外的性能增益,见上表
有鉴于此,作者提出了AAT策略
它引入了一个Anchor-based辅助分支以组合两种方案的优势
通过这种训练策略,源自的辅助分支的引导信息可以被有效的嵌入到Anchor-free分支
在推理阶段,辅助分支将被移除掉
Self-distillation
在YOLOv6早期版本中,自蒸馏仅在大模型中得到应用,采用的普通KL散度蒸馏
知识蒸馏损失与整体损失定义如下
超参数α用于对两个损失进行平衡
在训练的早期,源自老师模型的软标签更易于学习
而在训练的后期,学生模型从硬标签中受益更多
因此,作者设计了一种cosine weight decay调整机制
由于DFL会对回归分支引入额外的参数,极大程度影响小模型的推理速度
因此,作者针对小模型设计了一种DLD(Decoupled Localization Distillation)以提升性能且不影响推理速度
具体来说,在小模型中插入一个增强版回归分支作为辅助
在自蒸馏阶段,小模型受普通回归分支与增强回归分支加持,老师模型近使用辅助分支
需要注意:普通分支仅采用硬标签进行训练,而辅助分支则用硬标签与源自老师模型的软标签进行训练
完成蒸馏后,仅普通分支保留,辅助分支被移除
这种训练策略又是一种加量不加价的"赠品"
实验
上表给出了不同方案的性能对比,可以看到
相比YOLOv5-N、YOLOv7-Tiny,YOLOv6-N指标分别提升9.5%、4.2%,同时具有最佳速度
相比YOLOX-S、PPYOLOE-S、YOLOv6-S指标分别提升3.5%、0.9%且速度更快
YOLOv6-M比YOLOv5-M指标高4.6%、速度相当,比YOLOX-M、PPYOLOE-M指标高3.1%、1.0%且速度更快
除了比YOLOv5-L更高更快外,YOLOv6-L比YOLOX-L、PPYOLOE-L分别高3.1%、1.4%且速度相当
相比YOLOv8,YOLOv6在所有尺寸下取得了相当的精度,同时具有更优的吞吐性能
除了上述常规模型尺寸外,作者还进一步提升了输入分辨率并添加了C6特征,与YOLOv5等方案对比
相比YOLOv5系列(即YOLOv5-N6/S6/M6/L6/X6),YOLOv6具有更高的AP、相当的速度
相比YOLOv7-E6E,YOLOv6-L6指标高出0.4%,推理速度快36%
参考文献
-
https://arxiv.org/pdf/2301.05586.pdf
-
https://github.com/meituan/YOLOv6