密集行人数据集 CrowdHuman
voc和yolo两种格式,yolo可以直接使用
train val test已经划分好
有yolov8训练200轮模型。
数据集描述
CrowdHuman数据集是一个专为密集行人检测设计的数据集,旨在解决行人密集场景下的检测挑战。该数据集包括了大量的行人图像,涵盖了各种复杂的场景,如街道、广场等人流密集的地方。CrowdHuman数据集的目的是帮助研究人员和开发者提高在拥挤环境中的行人检测精度。
数据规模
数据集已经被划分为三个子集:
- 训练集 (train):包含用于训练模型的数据。
- 验证集 (val):包含用于验证模型的数据。
- 测试集 (test):包含用于最终测试模型性能的数据。
具体的数据量如下:
- 训练集:已划分好的训练集。
- 验证集:已划分好的验证集。
- 测试集:已划分好的测试集。
目标类别
该数据集的目标类别包括:
- 行人 (Pedestrian)
此外,数据集中可能存在一些遮挡部分行人的情况,标注信息中可能也会包括这部分信息。
标注格式
数据集中的标注信息支持两种格式:
- VOC格式:每个图像都有一个对应的XML文件,记录了每个对象的位置信息(边界框坐标)和类别标签。
- YOLO格式:每个图像都有一个对应的TXT文件,记录了每个对象的位置信息(边界框坐标归一化)和类别标签。这种格式可以直接用于YOLO系列模型的训练。
数据集结构
典型的数据集目录结构如下:
1CrowdHuman/
2├── train/
3│ ├── images/
4│ │ ├── img_00001.jpg
5│ │ ├── img_00002.jpg
6│ │ └── ...
7│ ├── labels/
8│ │ ├── img_00001.txt
9│ │ ├── img_00002.txt
10│ │ └── ...
11├── val/
12│ ├── images/
13│ │ ├── img_00001.jpg
14│ │ ├── img_00002.jpg
15│ │ └── ...
16│ ├── labels/
17│ │ ├── img_00001.txt
18│ │ ├── img_00002.txt
19│ │ └── ...
20├── test/
21│ ├── images/
22│ │ ├── img_00001.jpg
23│ │ ├── img_00002.jpg
24│ │ └── ...
25└── yolov8_weights.pt # 训练了200轮的YOLOv8模型权重文件
应用场景
该数据集可以用于以下应用场景:
- 公共安全:用于实时监测人流密集区域,提高公共安全水平。
- 安防监控:辅助安防系统的视频监控,及时发现人群异常情况。
- 事件响应:在发生紧急事件时,快速识别人群中的异常行为,以便采取相应措施。
- 科研分析:用于研究行人检测技术,尤其是在人群密集的场景下。
示例代码
以下是一个使用Python和相关库(如OpenCV、PIL等)来加载和展示数据集的简单示例代码:
1import os
2import cv2
3import numpy as np
4from PIL import Image
5
6# 数据集路径
7dataset_path = 'path/to/CrowdHuman/'
8
9# 加载图像和标签
10def load_image_and_label(image_path, label_path):
11 # 读取图像
12 image = Image.open(image_path).convert('RGB')
13 # 解析标签文件
14 with open(label_path, 'r') as infile:
15 lines = infile.readlines()
16 objects = []
17 for line in lines:
18 data = line.strip().split()
19 class_id = int(data[0]) # 假设类别ID为0(行人)
20 x_center, y_center, w, h = map(float, data[1:])
21 objects.append([x_center, y_center, w, h, class_id])
22 return image, objects
23
24# 展示图像
25def show_image_with_boxes(image, boxes):
26 img = np.array(image)
27 class_name = 'Pedestrian'
28 for box in boxes:
29 x_center, y_center, w, h, class_id = box
30 w, h = int(w * img.shape[1]), int(h * img.shape[0])
31 x_center, y_center = int(x_center * img.shape[1]), int(y_center * img.shape[0])
32 xmin, xmax = x_center - w // 2, x_center + w // 2
33 ymin, ymax = y_center - h // 2, y_center + h // 2
34 cv2.rectangle(img, (xmin, ymin), (xmax, ymax), (0, 255, 0), 2)
35 cv2.putText(img, class_name, (xmin, ymin - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 255, 0), 2)
36 cv2.imshow('Image with Boxes', img)
37 cv2.waitKey(0)
38 cv2.destroyAllWindows()
39
40# 主函数
41if __name__ == "__main__":
42 subset = 'train' # 可以选择 'val' 或 'test'
43 images_dir = os.path.join(dataset_path, subset, 'images')
44 labels_dir = os.path.join(dataset_path, subset, 'labels')
45
46 # 获取图像列表
47 image_files = [f for f in os.listdir(images_dir) if f.endswith('.jpg')]
48
49 # 随机选择一张图像
50 selected_image = np.random.choice(image_files)
51 image_path = os.path.join(images_dir, selected_image)
52 label_path = os.path.join(labels_dir, selected_image.replace('.jpg', '.txt'))
53
54 # 加载图像和标签
55 image, boxes = load_image_and_label(image_path, label_path)
56
57 # 展示带有标注框的图像
58 show_image_with_boxes(image, boxes)
这段代码展示了如何加载图像和其对应的YOLO TXT标注文件,并在图像上绘制边界框和类别标签。您可以根据实际需求进一步扩展和修改这段代码,以适应您的具体应用场景。
示例代码:使用预训练模型进行推理
以下是使用YOLOv8预训练模型进行推理的示例代码:
1import torch
2import cv2
3import numpy as np
4from pathlib import Path
5
6# 数据集路径
7dataset_path = 'path/to/CrowdHuman/'
8subset = 'test' # 可以选择 'train' 或 'val'
9
10# 加载预训练模型
11weights_path = os.path.join(dataset_path, 'yolov8_weights.pt')
12model = torch.hub.load('ultralytics/yolov5', 'custom', path=weights_path, force_reload=True)
13
14# 主函数
15if __name__ == "__main__":
16 images_dir = os.path.join(dataset_path, subset, 'images')
17
18 # 获取图像列表
19 image_files = [f for f in os.listdir(images_dir) if f.endswith('.jpg')]
20
21 # 随机选择一张图像
22 selected_image = np.random.choice(image_files)
23 image_path = os.path.join(images_dir, selected_image)
24
25 # 使用预训练模型进行推理
26 results = model(image_path)
27 results.show() # 显示结果
28 results.save() # 保存结果图像
这段代码展示了如何使用YOLOv8预训练模型进行推理,并显示和保存推理结果。您可以根据实际需求进一步扩展和修改这段代码,以适应您的具体应用场景。如果您需要使用YOLOv8模型进行更高级的功能,如模型微调或增量训练,可以参考YOLOv8的官方文档来进行相应的配置和操作。