无人机检测车辆——多目标检测

ops/2024/11/19 7:09:08/

目录

YOLOv3(You Only Look Once version 3)简介

YOLOv3 的主要特点

YOLOv3 的结构

1. 特征提取网络(Backbone)

2. 检测头(Head)

3. 输出层

YOLOv3 损失函数

YOLOv3 的优势

YOLOv3 的应用

YOLOv3 的局限性

实现思路

1. 加载模型和配置文件:

2. 视频读取:

3. 初始化跟踪器:

4. YOLOv3目标检测

5. 目标跟踪:

6. 结果展示:

7. 资源释放:

整体代码

效果图

总结



YOLOv3(You Only Look Once version 3)简介

        YOLOv3 是一种目标检测模型,它是 YOLO(You Only Look Once)系列模型的第三个版本,主要改进了之前版本的精度和速度。YOLOv3 可以在单次推理中同时识别图像中的多个目标,它通过回归问题将目标检测任务转化为一个单一的回归问题,从而实现了非常高的检测速度。YOLOv3 在速度和精度之间提供了良好的平衡,成为了工业和学术界广泛使用的目标检测模型。

        YOLOv3 由 Joseph Redmon 和 Santosh Divvala 等人提出,主要的创新包括:

  1. 更好的多尺度检测:通过使用三个不同尺度的特征图来检测不同尺寸的目标。
  2. 更精确的特征提取网络:YOLOv3 使用了一个新的特征提取网络(Darknet-53),相比于之前的 YOLOv2 使用的 Darknet-19,它更深更强,能够提取更多的图像特征。
  3. 改进的损失函数:YOLOv3 对损失函数进行了改进,加入了对边界框位置、置信度、类别概率等因素的多方面考虑,使得模型能够更准确地进行目标检测

YOLOv3 的主要特点

  1. 实时性和高效率:YOLOv3 可以实时进行目标检测,尤其适合需要实时反馈的应用场景,比如自动驾驶、监控摄像头等。

  2. 端到端训练和推理:YOLOv3 是一个端到端的模型,不需要额外的区域提议(region proposals)阶段。通过单一的神经网络结构,YOLOv3 可以在一次前向推理中同时完成目标的定位和分类。

  3. 高精度和高速度:虽然 YOLOv3 的推理速度非常快,但它并没有牺牲精度。YOLOv3 在 COCO 数据集上的表现优于许多其他实时目标检测模型(如 SSD 和 Faster R-CNN)。

  4. 支持多类别和多尺度检测:YOLOv3 支持大规模的类别检测(COCO 数据集中的 80 类物体),并且能够检测大小不一的目标物体,尤其是在小物体的检测上有显著提高。

  5. 使用 Leaky ReLU 激活函数:YOLOv3 使用了 Leaky ReLU 替代传统的 ReLU 激活函数,能够避免 ReLU 在某些情况下出现死神经元(dead neurons)问题。

  6. 检测层次结构:YOLOv3 使用三种不同大小的特征图来进行目标检测,从而更好地处理小物体、大物体的检测任务。其采用了类似 FPN(Feature Pyramid Networks)的结构,能够有效利用不同尺度的特征进行多尺度目标检测


YOLOv3 的结构

        YOLOv3 的整体架构分为两个主要部分:特征提取网络(Backbone)检测头(Head)

1. 特征提取网络(Backbone)

        YOLOv3 使用 Darknet-53 作为其特征提取网络。Darknet-53 是一个具有 53 层的卷积神经网络,相比于 YOLOv2 使用的 Darknet-19,Darknet-53 更深且具备更强的特征提取能力。Darknet-53 由残差块组成,可以更有效地提取图像中的低级和高级特征。

2. 检测头(Head)

        YOLOv3 的检测头负责从特征图中提取目标的边界框坐标、置信度以及类别信息。YOLOv3 采用了三个不同尺度的特征图来进行检测:一个用于检测大物体,一个用于中等物体,另一个用于小物体。这些特征图分别来自网络中不同深度的卷积层。

3. 输出层

        YOLOv3 的输出是一个 3D 张量,包含了边界框的位置(x, y, w, h)、置信度和类别概率。输出的每个单元表示一个预测框的信息。

  • 每个预测框会有 4 个坐标值(x, y, w, h),表示边界框的位置和尺寸。
  • 每个框还会有一个置信度值,表示该框内包含目标的置信度。
  • 最后,每个框还会包含与每个类别相关的类别概率分布。

YOLOv3 损失函数

YOLOv3 使用了一个多任务损失函数,结合了位置损失、置信度损失和类别损失:

  1. 位置损失(Localization Loss):该损失用于优化边界框的预测精度,通常使用均方误差(MSE)来计算。

  2. 置信度损失(Confidence Loss):该损失用于衡量每个预测框内是否包含目标物体,越接近 1 说明预测越准确,目标物体越确定。YOLOv3 对所有预测框都计算了置信度损失。

  3. 类别损失(Classification Loss):该损失用于计算每个框的类别预测误差,通常使用交叉熵损失来计算。


YOLOv3 的优势

  • 实时性强:相较于许多传统的目标检测方法(如 Faster R-CNN),YOLOv3 的检测速度更快,适合实时应用。

  • 精度高:YOLOv3 在大型数据集(如 COCO、PASCAL VOC)上的精度较高,尤其是在小物体检测方面有所改进。

  • 多尺度检测:YOLOv3 的多尺度检测策略使得它能够在不同大小的物体上都有较好的表现。


YOLOv3 的应用

YOLOv3 被广泛应用于以下领域:

  1. 自动驾驶:YOLOv3 能够实时识别道路上的车辆、行人、交通标志等物体,对于自动驾驶系统的目标检测至关重要。

  2. 视频监控:YOLOv3 可以用来实时分析监控视频,识别入侵者、车辆或其他目标。

  3. 工业检测:在工业制造过程中,YOLOv3 可用于缺陷检测、零件识别等。

  4. 无人机目标检测:YOLOv3 适用于无人机上的实时物体识别,能够进行高效的目标追踪和监控。


YOLOv3 的局限性

尽管 YOLOv3 在速度和精度上都表现出色,但仍然存在一些局限性:

  1. 小物体检测问题:虽然 YOLOv3 引入了多尺度特征图来改进小物体检测,但对于极小的物体,它的检测精度仍然不如其他更精细的检测模型(如 Faster R-CNN 或 RetinaNet)。

  2. 精度与速度的平衡:YOLOv3 主要专注于速度,因此在极高精度的需求下,可能不如一些其他的目标检测模型。


实现思路

1. 加载模型和配置文件

  • 代码首先加载了COCO数据集中的类别名称(coco.names)和YOLOv3的配置文件(yolov3.cfg)以及权重文件(yolov3.weights)。这些文件是YOLOv3模型进行物体检测所需要的。
  • net = cv2.dnn.readNet() 用来加载YOLO模型,getLayerNames()getUnconnectedOutLayers() 获取模型的输出层名称。

2. 视频读取

  • 使用 cv2.VideoCapture() 打开一个视频文件,这里假设视频文件名为 test1.mp4,你可以更换成其他的视频文件路径。
  • 每帧视频将会被读取,并传入后续的目标检测和跟踪部分。

3. 初始化跟踪器

  • 使用 cv2.TrackerCSRT_create() 创建CSRT(Channel and Spatial Reliability Tracking)跟踪器。CSRT是一个高效的多目标跟踪算法,适用于动态物体(如车辆)跟踪。
  • tracker.init(frame, bbox) 初始化跟踪器,bbox 是目标的边界框坐标(x, y, w, h),代表车辆在视频中的位置。

4. YOLOv3目标检测

  • yolo_detection(frame)目标检测函数,首先将图像转换成YOLO模型所需的输入格式(blobFromImage())。然后,将图像传入YOLO模型进行前向传播,获得每个检测框的信息(如位置、类别、置信度)。
  • 根据YOLO的检测结果,代码筛选出置信度大于0.5且类别为“车”、“巴士”和“卡车”的目标,这些目标会被添加到跟踪列表中。

5. 目标跟踪

  • 初始化跟踪器后,开始对视频中的目标进行跟踪。在 while 循环中,程序不断读取视频帧并更新所有的跟踪器。
  • 每次更新时,通过 tracker.update(frame) 获取新的目标位置。如果跟踪成功,更新目标的边界框,并绘制在视频帧上;如果跟踪失败,则显示“Tracking failure”提示。

6. 结果展示

  • 每一帧被处理后,将通过 cv2.imshow() 显示出来。如果按下键盘上的 'q' 键,程序会退出循环并关闭窗口。
  • 绘制的跟踪框使用绿色((0, 255, 0)),并在框上方显示“Vehicle ID”来标识每个目标。

7. 资源释放

  • 在程序结束时,cap.release() 释放视频文件,cv2.destroyAllWindows() 关闭所有OpenCV的窗口。


整体代码

import cv2
import numpy as np# 加载类别名称
with open("../needFiles/coco.names", "r") as f:classes = [line.strip() for line in f.readlines()]# 加载YOLOv3配置文件和权重文件
net = cv2.dnn.readNet("../needFiles/yolov3.weights", "../needFiles/yolov3.cfg")# 获取输出层名称
layer_names = net.getLayerNames()
output_layers = [layer_names[i - 1] for i in net.getUnconnectedOutLayers()]# 打开视频文件(这里假设无人机视频文件为input_video.mp4)
cap = cv2.VideoCapture("./videos/test1.mp4")# 初始化变量
trackers = []  # 用于存储多个跟踪器
bboxes = []  # 存储所有目标的边界框
frame_count = 0# 车辆类别的ID(以COCO数据集为例)
vehicle_classes = ['car', 'bus', 'truck']  # 需要跟踪的车辆类别
vehicle_class_ids = [2, 5, 7]  # 对应的类别ID# 使用跟踪算法
def init_tracker(frame, bbox):# 使用CSRT跟踪器(适合动态物体)tracker = cv2.TrackerCSRT_create()tracker.init(frame, bbox)return tracker# YOLOv3检测
def yolo_detection(frame):blob = cv2.dnn.blobFromImage(frame, 0.00392, (416, 416), (0, 0, 0), True, crop=False)net.setInput(blob)outs = net.forward(output_layers)class_ids = []confidences = []boxes = []height, width, _ = frame.shapefor out in outs:for detection in out:scores = detection[5:]class_id = np.argmax(scores)confidence = scores[class_id]if confidence > 0.5:  # 置信度阈值center_x = int(detection[0] * width)center_y = int(detection[1] * height)w = int(detection[2] * width)h = int(detection[3] * height)x = int(center_x - w / 2)y = int(center_y - h / 2)# 如果检测到的是车辆类别,则将目标添加到跟踪列表if class_id in vehicle_class_ids:boxes.append([x, y, w, h])confidences.append(float(confidence))class_ids.append(class_id)# 使用非极大值抑制(NMS)过滤多余的框indexes = cv2.dnn.NMSBoxes(boxes, confidences, 0.5, 0.4)return boxes, confidences, class_ids, indexes# 选择视频中的一帧图像进行目标选择
ret, frame = cap.read()
if not ret:print("无法读取视频文件!")cap.release()exit()# 目标检测并初始化目标跟踪
boxes, confidences, class_ids, indexes = yolo_detection(frame)
for i in range(len(boxes)):if i in indexes:x, y, w, h = boxes[i]bbox = (x, y, w, h)  # 目标框坐标tracker = init_tracker(frame, bbox)trackers.append(tracker)bboxes.append(bbox)# 跟踪目标
while True:ret, frame = cap.read()if not ret:break# 调整帧大小以适应显示器screen_width = 800  # 设置显示器宽度screen_height = int(frame.shape[0] * (screen_width / frame.shape[1]))frame_resized = cv2.resize(frame, (screen_width, screen_height))# 更新所有的跟踪器for i, tracker in enumerate(trackers):success, bbox = tracker.update(frame)# 绘制跟踪框if success:x, y, w, h = [int(v) for v in bbox]cv2.rectangle(frame_resized, (x, y), (x + w, y + h), (0, 255, 0), 2)cv2.putText(frame_resized, f"Vehicle ID: {i+1}", (x, y - 10),cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 255, 0), 2)else:cv2.putText(frame_resized, "Tracking failure", (100, 80), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 0, 255), 2)# 显示图像cv2.imshow("WenJGo", frame_resized)# 按 'q' 键退出if cv2.waitKey(1) & 0xFF == ord('q'):break# 释放资源
cap.release()
cv2.destroyAllWindows()

效果图

总结

        YOLOv3 是一款强大的实时目标检测模型,它在精度和速度之间提供了很好的平衡。通过引入更深的网络架构、多个尺度的检测和改进的损失函数,YOLOv3 在多种应用场景中都取得了优秀的表现。对于需要快速处理并识别图像中多目标的任务,YOLOv3 是一个非常优秀的选择。但是我觉得我现在还用的不好。


http://www.ppmy.cn/ops/134893.html

相关文章

Linux :进程间通信之管道

一、进程间通信 1.1 是什么和为什么 1、进程间通信是什么?? ——>两个或多个进程实现数据层面的交互,但是由于进程独立性的存在,导致通信的成本比较高。 2、既然通信成本高,那为什么还要通信呢?&…

SpringBoot源码解析(四):解析应用参数args

SpringBoot源码系列文章 SpringBoot源码解析(一):SpringApplication构造方法 SpringBoot源码解析(二):引导上下文DefaultBootstrapContext SpringBoot源码解析(三):启动开始阶段 SpringBoot源码解析(四):解析应用参数args 目录…

视频智能分析软件LiteAIServer视频智能分析平台玩手机打电话检测算法

在当今这个数字化时代,智能手机已成为我们日常生活中不可或缺的一部分,它极大地便利了我们的沟通与学习。然而,当这份便利被不恰当地带入到如工厂生产线、仓库以及学校课堂等特定的工作和学习环境中时,其潜在的危害便逐渐显露出来…

乘法器为例:概述MCU与FPGA通过APB总线实现交互(fpgaAPB的简单使用)

测试平台: GW1N4器件内置 M1内核;并且可以设置 APB总线与fpga 逻辑进行交互; 框图: +---------------------+ | | | M1 Microprocessor | <-----------------+ | | | | +-----------------…

llm 从0开始学习大语言模型, transformer架构学习

1. github&#xff1a; https://github.com/rasbt/LLMs-from-scratch 2. 这个是一本书&#xff0c;写在了github. 里面有代码&#xff0c;有讲解。从0开始写个llm 3. 如果看不懂&#xff0c;知乎有人写的中文版学习笔记&#xff1a; https://zhuanlan.zhihu.com/p/681401085

centos安装jenkins

本机使用虚拟机centos 7.9.2009 安装gitlab&#xff0c;本机的虚拟机ip地址是 192.168.60.151&#xff0c; 步骤记录如下 1、下载jenkins&#xff0c;安装jenkins之前需要安装jdk jdk和jenkins的版本对应关系参考&#xff1a;Redhat Jenkins Packages Index of /redhat-stable…

TDSQL 免密码登录

需求 os用户免密登录tdsql 解决方案 使用mysql自带的 mysql_config_editor 工具 提示&#xff1a;使用这个工具&#xff0c;登录密码不能包含#字符。 操作步骤 建os账号&#xff0c;切换到新账号 [roottdsql1 ~]# useradd jdbc_user [roottdsql1 ~]# su - jdbc_user [jd…

跨越网络边界:IPv6与零信任架构的深度融合

2024年&#xff0c;工信部发布了《关于开展“网络去NAT”专项工作 进一步深化IPv6部署应用的通知》&#xff0c;加速了国内网络由IPv4向IPv6的转型步伐。未来&#xff0c;各行各业将逐步去NAT&#xff0c;逐步向IPv6迁移。在此过程中&#xff0c;网络安全解决方案和产品能力将面…