摄像头对人脸进行性别和年龄的判断

news/2024/10/21 10:05:18/

摄像头对人脸性别和年龄判断

    • 导入必要的库
    • 加载预训练的人脸检测模型
    • 加载预训练的性别和年龄识别模型
    • 定义性别和年龄的标签列表
    • 打开摄像头
    • 从摄像头读取一帧
    • 转换为灰度图像
    • 检测人脸
    • 遍历检测到的人脸
    • 显示视频流
    • 按 ‘q’ 或点击窗口的“×”退出循环
    • 释放摄像头和销毁所有窗口
    • 全部代码

导入必要的库

cv2:OpenCV库,用于图像处理和摄像头操作。
numpy:用于数值计算。

python">import cv2
import numpy as np

加载预训练的人脸检测模型

使用cv2.CascadeClassifier加载Haar级联分类器,用于检测图像中的人脸。

python">face_cascade = cv2.CascadeClassifier('haarcascade_frontalface_default.xml')

加载预训练的性别和年龄识别模型

使用cv2.dnn.readNetFromCaffe加载Caffe模型,用于预测人脸的性别和年龄。

python">gender_net = cv2.dnn.readNetFromCaffe('deploy_gender.prototxt', 'gender_net.caffemodel')
age_net = cv2.dnn.readNetFromCaffe('deploy_age.prototxt', 'age_net.caffemodel')

定义性别和年龄的标签列表

创建两个列表,分别用于存储性别和年龄的标签。

python">gender_list = ['man', 'woman']
age_list = ['(0-10)', '(10-15)', '(15-20)', '(20-30)', '(45-55)', '(55-65)', '(65-80)', '(80-100)']

打开摄像头

使用cv2.VideoCapture(0)打开默认的摄像头。

python">cap = cv2.VideoCapture(0)

从摄像头读取一帧

使用cap.read()从摄像头捕获一帧视频。

python">while True:# 从摄像头读取一帧ret, frame = cap.read()if not ret:print("无法捕获视频流,请检查摄像头是否正常工作。")break

转换为灰度图像

使用cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)将捕获的帧从BGR格式转换为灰度格式。

python">gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)

检测人脸

使用face_cascade.detectMultiScale(gray, 1.1, 4)在灰度图像中检测人脸。

python">faces = face_cascade.detectMultiScale(gray, 1.1, 4)

遍历检测到的人脸

对于检测到的人脸,执行以下操作:
裁剪出人脸区域。
将裁剪出的人脸区域转换为Caffe模型所需的格式。
使用Caffe模型预测性别和年龄。
在原图上画出人脸框,并在框内显示性别和年龄。

python">for (x, y, w, h) in faces:# 从原始图像中裁剪人脸区域face_img = frame[y:y + h, x:x + w].copy()# 预处理人脸图像以适应神经网络输入blob = cv2.dnn.blobFromImage(face_img, 1, (227, 227), (78.4263377603, 87.7689143744, 114.895847746), swapRB=False)# 预测性别gender_net.setInput(blob)gender_preds = gender_net.forward()gender = gender_list[gender_preds[0].argmax()]# 预测年龄age_net.setInput(blob)age_preds = age_net.forward()age = age_list[age_preds[0].argmax()]# 在人脸周围画框并显示性别和年龄cv2.rectangle(frame, (x, y), (x + w, y + h), (255, 255, 0), 2)cv2.putText(frame, f'{gender}, {age}', (x, y - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.8, (0, 255, 0), 2, cv2.LINE_AA)

显示视频流

使用cv2.imshow(‘Gender and Age Recognition’, frame)在窗口中显示视频流。

python">cv2.imshow('Gender and Age Recognition', frame)

按 ‘q’ 或点击窗口的“×”退出循环

使用cv2.waitKey(1)等待用户按键。
如果用户按了’q’键或者关闭了窗口,则退出循环。

python">if cv2.waitKey(1) == 27 or cv2.getWindowProperty('Gender and Age Recognition', cv2.WND_PROP_VISIBLE) < 1:break

释放摄像头和销毁所有窗口

使用cap.release()释放摄像头。
使用cv2.destroyAllWindows()销毁所有OpenCV创建的窗口。

python">cap.release()
cv2.destroyAllWindows()

全部代码

python">import cv2
import numpy as np# 加载预训练的人脸检测模型
face_cascade = cv2.CascadeClassifier('haarcascade_frontalface_default.xml')# 加载预训练的性别和年龄识别模型
gender_net = cv2.dnn.readNetFromCaffe('deploy_gender.prototxt', 'gender_net.caffemodel')
age_net = cv2.dnn.readNetFromCaffe('deploy_age.prototxt', 'age_net.caffemodel')# 定义性别和年龄的标签列表
gender_list = ['man', 'woman']
age_list = ['(0-10)', '(10-15)', '(15-20)', '(20-30)', '(45-55)', '(55-65)', '(65-80)', '(80-100)']# 打开摄像头
cap = cv2.VideoCapture(0)while True:# 从摄像头读取一帧ret, frame = cap.read()if not ret:print("无法捕获视频流,请检查摄像头是否正常工作。")break# 转换为灰度图像gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)# 检测人脸faces = face_cascade.detectMultiScale(gray, 1.1, 4)# 遍历检测到的人脸for (x, y, w, h) in faces:# 从原始图像中裁剪人脸区域face_img = frame[y:y + h, x:x + w].copy()# 预处理人脸图像以适应神经网络输入blob = cv2.dnn.blobFromImage(face_img, 1, (227, 227), (78.4263377603, 87.7689143744, 114.895847746), swapRB=False)# 预测性别gender_net.setInput(blob)gender_preds = gender_net.forward()gender = gender_list[gender_preds[0].argmax()]# 预测年龄age_net.setInput(blob)age_preds = age_net.forward()age = age_list[age_preds[0].argmax()]# 在人脸周围画框并显示性别和年龄cv2.rectangle(frame, (x, y), (x + w, y + h), (255, 255, 0), 2)cv2.putText(frame, f'{gender}, {age}', (x, y - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.8, (0, 255, 0), 2, cv2.LINE_AA)# 显示视频流cv2.imshow('Gender and Age Recognition', frame)# 按 'q' 或点击窗口的“×”退出循环if cv2.waitKey(1) == 27 or cv2.getWindowProperty('Gender and Age Recognition', cv2.WND_PROP_VISIBLE) < 1:break# 释放摄像头和销毁所有窗口
cap.release()
cv2.destroyAllWindows()

http://www.ppmy.cn/news/1466878.html

相关文章

【TB作品】msp430f5529单片机,读取DHT11温湿度,读取adc,oled显示

功能 msp430f5529单片机&#xff0c;读取DHT11温湿度&#xff0c;读取adc&#xff0c;oled显示 硬件 //OLED引脚分配 绿色板子 //DO(SCLK)------P4.3 //D1(DATA)------P4.0 //RES-----------P3.7 //DC------------P8.2 //CS------------P8.1 //mq135 P6.5 //DHT11 P4.1 部…

盲盒系统开发功能架构 源码搭建 定制开发

一、盲盒为何热度这么高&#xff1f; 盲盒热的形成&#xff0c;是产品、消费者和市场三方合力的结果&#xff1a; 从产品看&#xff1a;盲盒产品线比较丰富&#xff0c;新品层出不穷&#xff0c;加上隐藏款或特别款的“双重诱惑”&#xff0c;更加激发盲盒收藏爱好者的收藏欲…

用于脑肿瘤分割的跨模态深度特征学习| 文献速递-深度学习肿瘤自动分割

Title 题目 Cross-modality deep feature learning for brain tumor segmentation 用于脑肿瘤分割的跨模态深度特征学习 01 文献速递介绍 作为最致命的流行病&#xff0c;脑肿瘤的研究越来越受到关注。本文研究了一种基于深度学习的自动分割胶质瘤的方法&#xff0c;称为脑…

网络编程(七)

网络编程&#xff08;七&#xff09; UNIX域套接字&#xff08;本地间进程间通信的技术&#xff09;&#xff08;S文件&#xff09;基于TCP传输基于UDP传输 UNIX域套接字&#xff08;本地间进程间通信的技术&#xff09;&#xff08;S文件&#xff09; socket同样也可以用于本…

Vue3 双向绑定

需求&#xff1a;父和子实现双向数据绑定 &#xff08;Vue3.4&#xff09; 单参数实现&#xff1a; 父组件------------------<UserNamev-model:first-name"first"v-model:last-name"last" />子组件&#xff1a;------------<script setup> c…

在Linux/Ubuntu/Debian中使用lshw查看系统信息

在Linux/Ubuntu/Debian中使用lshw查看系统信息 lshw 是一个用于显示硬件配置的命令&#xff0c;可以提供系统硬件的详细信息&#xff0c;包括 CPU、内存、硬盘、主板等。该命令需要超级用户权限来获取详细信息。 常见用法&#xff1a; 显示所有硬件信息&#xff1a; sudo l…

21.过拟合和欠拟合示例

1. 背景介绍 在机器学习和深度学习中&#xff0c;过拟合和欠拟合是两个非常重要的概念。过拟合指的是模型在训练数据上表现很好&#xff0c;但在新的测试数据上效果变差的情况。欠拟合则是指模型无法很好地拟合训练数据的情况。这两种情况都会导致模型无法很好地泛化&#xff…

开发语言Java+前端框架Vue+后端框架SpringBoot开发的ADR药物不良反应监测系统源码 系统有哪些优势?

开发语言Java前端框架Vue后端框架SpringBoot开发的ADR药物不良反应监测系统源码 系统有哪些优势&#xff1f; ADR药物不良反应监测系统具有多个显著的优势&#xff0c;这些优势主要体现在以下几个方面&#xff1a; 一、提高监测效率与准确性&#xff1a; 通过自动化的数据收集…