基于Docker的交互式人脸识别应用

news/2024/12/21 16:35:39/

7ca008f8c0efaa871a26faffd5b73c70.png

本文将介绍如何开发一个交互式应用程序,利用Adam Geitgey的人脸识别框架,从摄像头或网络摄像头设备识别人脸。

为了创建一个交互式应用程序,我们将使用Tkinter,Docker将用于确保一个包含所有必要依赖项的隔离环境。本文可以作为你自己项目的起点,因为使用哪些框架和库并不重要。

了解如何通过Docker创建一个利用摄像头设备、GPU加速和深度学习框架的交互式应用程序有很多可能性。

如果只希望通过Docker运行GUI,我创建了本文,你可以按照以下内容进行操作:

https://towardsdatascience.com/empowering-docker-using-tkinter-gui-bf076d9e4974


如果你想立即运行应用程序,可以下载我的Github存储库,并按照本文末尾的“运行应用程序”部分进行操作。

阅读教程

在本文中,将介绍应用程序中的脚本,之后将介绍运行应用程序的教程。文章将按照以下顺序进行。

目录

  1. 环境

  2. 应用程序概述

  3. Docker

  4. 编程

  5. 摄像设备

  6. 计算机视觉

  7. Shell脚本

  8. 运行应用程序

  9. 结论


环境

此应用程序仅使用Linux进行了测试,但是,它的工作原理应该与其他操作系统类似,其中一些参数可能不同,例如在运行Docker时。

对于先决条件,你应该安装摄像头或网络摄像头、Docker、CUDA和CuDNN。我已使用以下方法测试了应用程序:

  • Docker 20.10.8

  • CUDA 11.4

  • CuDNN 8.2.2

  • OS:Manjaro 21.1.2 Phavo

  • GPU:NVIDIA GeForce GTX 1080 Ti

  • 摄像头设备:罗技网络摄像头C930e

目录结构

本项目的目录结构如下所示。你可以事先创建这些文件,或者直接从我的Github存储库下载所有文件。

此外,你需要在dataset目录中创建自己的目录,并插入所需的图像。在我的例子中,如下所示,我在Kasper目录中添加了四个图像。你在不同场景中为同一个人添加的图像越多,你的预测就越可靠。关于脚本,本文将介绍它们的内容。

注意:encodings.pkl将在以后自动生成。

应用程序的目录结构:

9a78ced965bd5269b3a7ab1e3064996e.png


应用程序概述

该应用程序包含一个GUI,其中有一个用于显示相机设备输出的面板。此外,还有一个用于激活/禁用人脸识别的按钮。

当前打开人脸识别的应用程序。

b2fa9fe73d6342d3e089000a7281efaa.png


Docker

为了创建一个安装人脸识别、OpenCV、Dlib、Python等的隔离环境,使用了以下Docker代码。

Dockerfile创建隔离环境:

FROM nvidia/cuda:11.4.1-cudnn8-devel-ubuntu20.04ARG DEBIAN_FRONTEND=noninteractive# Install dependencies
RUN apt-get update -y
RUN apt-get install -y \git \cmake \libsm6 \libxext6 \libxrender-dev \python3 \python3-pip \gcc \python3-tk \ffmpeg \libopenblas-dev \ liblapack-dev# Install dlib
RUN git clone https://github.com/davisking/dlib.git && \cd dlib && \mkdir build && \cd build && \cmake .. -DDLIB_USE_CUDA=1 -DUSE_AVX_INSTRUCTIONS=1 && \cmake --build . && \cd .. && \python3 setup.py install # Install Face Recognition and OpenCV
RUN pip3 install face_recognition opencv-pythonWORKDIR /face_recognition/app

Tkinter

为了创建一个可由用户控制的交互式GUI以启用和禁用人脸识别,使用Tkinter库。下面的代码创建了先前显示的GUI。

主脚本,用于创建GUI并允许人脸识别。

import tkinter as tk
from src.facevision import FaceVision
from src.videostream import VideoStreamif __name__ == '__main__':# Tkinter窗口root_window = tk.Tk()# Window设置root_window.title('Face Recognition')root_window.geometry('500x540')  # widthxheight+x+yroot_window.configure(background='#353535')# 摄像头可视化面板panel = tk.Label(root_window)panel.pack(side='top', fill='none')# FaceVision初始化face_vision = FaceVision()# Webcam初始化vs = VideoStream(panel=panel, face_vision=face_vision)vs.stream()# 人脸识别按钮button_face_recognition = tk.Button(root_window, text='Activate Face Recognition', command=lambda: face_vision.change_facerec_state(button_face_recognition))button_face_recognition.pack()# 主循环root_window.mainloop()

摄像设备

为了从相机设备获取图像并更新Tkinter GUI,可以使用以下脚本。

在第7行中,它使用函数VideoCapture by OpenCV,其中的参数应与你的设备相对应。默认相机id通常为0,但是,如果不起作用,可以尝试使用1或-1。

如果你希望使用视频,你应该能够用视频路径替换设备id,但可能需要进行一些其他调整。在第26行,它在一毫秒后再次调用函数本身。

import cv2
from PIL import Image, ImageTkclass VideoStream():def __init__(self, panel, face_vision):self.cap = cv2.VideoCapture(0) # 参数应该对应于你的设备self.panel = panelself.face_vision = face_visiondef stream(self):# 从相机获取图像_, frame = self.cap.read()img = cv2.cvtColor(frame, cv2.COLOR_BGR2RGB)# 人脸识别img = self.face_vision.process_image(img=img)# Tkinterimg = Image.fromarray(img)tk_img = ImageTk.PhotoImage(img)self.panel.imgtk = tk_imgself.panel.configure(image=tk_img)# 再次运行self.panel.after(ms=1, func=self.stream)

计算机视觉

与大多数计算机视觉应用程序相反,在大多数计算机视觉应用程序中,你通过展示数百个类的示例来训练模型以对所需类进行分类,而在人脸识别中,你可以使用深度度量学习。

通过深度度量学习,你可以训练模型来描述所需对象,而不是预测它是哪个类。在我们的例子中,我们使用它来提供一个特征向量,一种128维编码,它使用实数来描述每个人脸。教授一个模型来描述人脸而不是预测一个特定的人是一个优势,因为如果想要识别一个新的人,就不需要对模型进行再训练。

相反,我们应该简单地保存模型可以访问的新人的编码。我们将在本文后面获得这些编码。使用框架人脸识别,我们不必从头开始训练模型,而是使用通过人脸识别提供的已经训练过的模型。如果想要进一步探索人脸识别领域,《人脸识别框架》详细阐述了这一主题:

https://medium.com/@ageitgey/machine-learning-is-fun-part-4-modern-face-recognition-with-deep-learning-c3cffc121d78

数据集与编码器

为了使模型能够识别人脸,需要一个包含人脸编码的pickle文件。要实现这一点,正如前面在“目录结构”一节中提到的,你必须在目录数据集中创建一个包含所需人员姓名的目录。之后,编码器应包含以下代码。

在这段代码中,我们递归地获取dataset目录中每个人的所有图像。通过使用人脸识别框架,我们定位人脸并为每幅图像提取编码。

构造包含数据集编码的pickle文件:

import face_recognition
import cv2
from pathlib import Path
import pickleif __name__ == '__main__':print('Starting Encoding..')data = {'names': [], 'encodings': []}# 数据集路径path = Path.cwd() / './data/dataset/'# 浏览每一张图片for file_name in path.rglob('*.jpg'):# 从数据集读取图像img = cv2.imread(str(file_name))img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)# 定位人脸face_location = face_recognition.face_locations(img, number_of_times_to_upsample=1, model='cnn')# 编码的人脸encoding = face_recognition.face_encodings(face_image=img, known_face_locations=face_location, model='small')# 保存信息data['names'].append(file_name.parent.name)data['encodings'].append(encoding)# 在pickle文件中保存编码with open('./data/encodings.pkl', 'wb') as f:pickle.dump(data, f)print('Completed Encoding!')

人脸识别

为了识别人脸,将使用以下代码。为了总结代码,它使用来自我们的相机设备的图像,检测人脸,为每个人脸提取128维编码,然后将新编码与我们的编码数据集进行比较。

为了进行比较,它会检查新编码的特征与我们编码的数据集之间的距离,如果特征的距离小于阈值参数,则该特征将获得投票。为了找到最佳匹配,我们只需选择得票最多的人。如果简单的解决方案不够,你可以实现更强大的分类器。

更具体地说,视频流为每一帧调用函数process_image,该函数完成了实现人脸识别所需的所有工作。在第43–45行中,可以调整比较的阈值参数。阈值越低,比较就越严格。此外,在第48-51行中,最高投票数也可以调整,以增加或减少严格程度。

计算机视觉部分,基于人脸识别框架:

import face_recognition
import pickle
import cv2
import numpy as npclass FaceVision():def __init__(self):# 加载编码data = pickle.loads(open('./data/encodings.pkl', 'rb').read())self.encoded_data = data['encodings']self.name_data = data['names']self.use_face_recognition = Falsedef process_image(self, img):# 检测和定位人脸face_locations = self.__locate_faces(img)# 如果没有找到人脸,返回原始图像if not face_locations:return img# 编码输入图像encodings = face_recognition.face_encodings(face_image=img, known_face_locations=face_locations, model='small')# 通过比较新的编码和之前编码的pickle文件来识别人脸self.__identify_faces(image=img, face_locations=face_locations, encodings=encodings)return imgdef __locate_faces(self, image):if self.use_face_recognition is True:# 检测人脸并接收他们的位置face_locations = face_recognition.face_locations(img=image, number_of_times_to_upsample=1, model='cnn')return face_locationsdef __identify_faces(self, image, face_locations, encodings):# 比较保存的编码和新的编码for face_bbox, encoding in zip(face_locations, encodings):# 找到匹配matches = face_recognition.compare_faces(known_face_encodings=self.encoded_data, face_encoding_to_check=encoding, tolerance=0.01)# 计算投票并找到最佳匹配votes = [np.count_nonzero(m==True) for m in matches]highest_vote = max(votes)highest_vote_idx = votes.index(highest_vote)person_match = self.name_data[highest_vote_idx]# 投票阈值,如果没有超过,投票的名字将是Unknownif highest_vote < 20:person_match = 'Unknown'# 添加可视化图像t, r, b, l = face_bboxcv2.rectangle(image, (l, t), (r, b), (0, 255, 0), 2)        cv2.putText(image, person_match, (l, t-10), cv2.FONT_HERSHEY_SIMPLEX, 0.8, (0, 255, 0), 1)def change_facerec_state(self, button):# 取反self.use_face_recognition = not self.use_face_recognition# 改变按钮的文本if self.use_face_recognition is True:button.configure(text='Disable Face Recognition')else:button.configure(text='Activate Face Recognition')

Shell脚本(警告)

为了简化操作,请创建一个shell脚本,该脚本使用以下参数运行xhost和Docker。

对于xhost,启用对所有人的访问,然后在卸载Docker容器后禁用它。在这个Docker命令中,我们共享GPU,显示GUI。

警告:如果在本地运行,则使用xhost和这些Docker参数不应成为问题。但是,如果在生产中使用,则应增强安全性,这在此处是推荐的。

自动启用/禁用xhost并运行Docker容器:

#!/bin/bash
xhost +
docker run --gpus all --device /dev/nvidia0 --device /dev/nvidia-uvm --device /dev/nvidia-uvm-tools \--device /dev/nvidiactl \-it \--rm \-e DISPLAY=$DISPLAY \-v /tmp/.X11-unix:/tmp/.X11-unix:rw \-v $(pwd):/face_recognition \--device=/dev/video0:/dev/video0 \face_recognition
xhost -

运行应用程序

  1. 构建Docker镜像:docker build -t facerecognition_gui

  2. 使shell脚本可执行:chmod +x ./run.sh

  3. 运行shell脚本:./run.sh

  4. 在Docker容器中,创建编码的数据集(确保图像位于数据集目录中的目录中):python3 encoder.py

  5. 运行应用程序:python3 gui.py

  6. 现在可以启用人脸识别。

注意:要分离/退出Docker容器,请按ctrl-D

结论

在本文中,你已经了解了如何将GUI、摄像头设备、GPU与Docker一起使用。了解如何结合这些,提供了许多可用于学术和商业目的的可能性。

此外,使用相同的策略,通过Docker共享etc设备,你应该能够利用其他库和框架,而不必经历环境问题。

☆ END ☆

如果看到这里,说明你喜欢这篇文章,请转发、点赞。微信搜索「uncle_pn」,欢迎添加小编微信「 woshicver」,每日朋友圈更新一篇高质量博文。

扫描二维码添加小编↓

9a258444f50031dd20a7f431b9609662.png


http://www.ppmy.cn/news/485468.html

相关文章

docker2

Docker镜像介绍 [root@zizhen02 ~]# docker container commit (或者简写#docker commit) "docker container commit" requires at least 1 and at most 2 arguments. See docker container commit --help. Usage: docker container commit [OPTIONS] CONTAINE…

window系统 实现FFmpeg 录制音视频

一、下载安装FFmpeg软件&#xff1a; 大家可以参考这篇文章&#xff1a;https://blog.csdn.net/qq_30091945/article/details/81154014 二、开始录制音视频&#xff1a; 1、首先执行下面的语句&#xff0c;查看你的window系统支持的 DirectShow 音视频设备&#xff1a; ffmpeg…

罗技c930e摄像头描述符

USB描述符存储在设备EEPROM中&#xff0c;枚举时主机向设备发送GetDescriptor请求&#xff0c;设备收到请求后&#xff0c;将描述符信息返回给主机&#xff0c;主机分析返回来数据&#xff0c;判断出设备类型后建立相应数据链接通道 描述符是用来描述自身信息的格式化的数据 De…

MAC搭建M1环境的stable-diffusion

MAC M1 搭建 stable-diffusion 环境 文章目录 MAC M1 搭建 stable-diffusion 环境环境准备1. 硬件环境2. 系统环境3. 基础软件环境 主要参考资料操作步骤1. 下载git2. 下载conda3. 创建python环境4. 下载仓库5. 安装依赖6. 转换模型7. 验证和测试8. 构造Web界面9. 测试WebUI10.…

【数据库系统概论】教案填空题

【数据库系统概论】教案填空题 文章目录 【数据库系统概论】教案填空题第一章 绪论第二章 关系数据库第三章 关系数据库标准语言sql第四章 数据库安全性第五章 数据库完整性第六章 关系数据理论第七章 数据库设计第八章 数据库编程第九章 关系查询处理和查询优化第十章 数据库恢…

memcpy 和 memmove的模拟实现

文章目录 1.函数的介绍 2.模拟实现 文章内容 1.函数的介绍 memcpy指的是C和C使用的内存拷贝函数&#xff0c;函数原型为void *memcpy(void*dest,void*src, size_t count)&#xff1b;函数的功能是从源内存地址的起始位置开始拷贝若干个字节到目标内存地址中&#xff0c;即从…

数据结构 栈(C语言实现)

绪论 时间就是生命&#xff0c;时间就是速度&#xff0c;时间就是气力。——郭沫若&#xff1b;本章继续学习数据结构&#xff0c;本章主要讲了什么是栈以及栈的基本功能和实现方法。 话不多说安全带系好&#xff0c;发车啦&#xff08;建议电脑观看&#xff09;。 附&#xff…

【Vue全家桶高仿小米商城】——(四)项目基础架构

第四章&#xff1a;项目基础架构 此章节全力讲解前端基本项目架构&#xff0c;通过此章节可搭建一个通用性的前端架构&#xff0c;内容涵盖跨域方案、路由封装、错误拦截等。 文章目录 第四章&#xff1a;项目基础架构一、前端跨域解决什么是前端跨域&#xff1f;怎么解决前端…