本程序主要实现了python的opencv人工智能视觉模块的口罩检测实时语音检测报警。
若不知道怎么安装opencv或者使用的请看我的这篇文章(曾上过csdn综合热榜的top1):
python进阶——人工智能视觉识别_lqj_本人的博客-CSDN博客
同时,另一篇基于opencv的人工智能视觉实现的目标实时跟踪功能(增上过csdn综合热榜的top5):
python进阶——人工智能实时目标跟踪_lqj_本人的博客-CSDN博客
PaddleHub是飞桨预训练模型管理和迁移学习工具,通过PaddleHub开发者可以使用高质量的预训练模型结合Fine-tune API快速完成迁移学习到应用部署的全流程工作。其提供了飞桨生态下的高质量预训练模型,涵盖了图像分类、目标检测、词法分析、语义模型、情感分析、视频分类、图像生成、图像分割、文本审核、关键点检测等主流模型。
AttributeError: partially initialized module ‘cv2‘ has no attribute ‘gapi_wip_gst_GStreamerPipeline‘
bug显示:cv2没有指定的依赖。
在我们的pycharm中自带的命令窗口中输入:
pip install opencv-python install "opencv-python-headless<4.3"
然后,我们再把我们的opencv-python降低版本为与我们安装的opencv-python-headless版本相同即可,我这里用的都是4.2.0.34版本。
因为opencv4.3以上的版本会存在与其他模块依赖的兼容性问题,4.3以上的版本兼容性较差,所以,有时会出现一下bug之类的错误。有时,其实我们写的代码没有问题,只是问题出在了依赖的兼容性问题上!
PlaySound是Windows用于播放音乐的API函数(方法)。在vs2010以上版本需要加入#pragma comment(lib, "winmm.lib")才能使用PlaySound。PlaySound函数原型为 BOOL PlaySound(LPCSTR pszSound, HMODULE hmod,DWORD fdwSound)。PlaySound参数,pszSound是指定了要播放声音的字符串,该参数可以是WAVE文件的名字,或是WAV资源的名字,或是内存中声音数据的指针,或是在系统注册表WIN.INI中定义的系统事件声音。如果该参数为NULL则停止正在播放的声音。
1.使用PaddlenHub模块指定算法,根据面部特征的上下左右来判断是否面部有物体遮挡,并判断遮挡区域及位置,若判断条件成功,则绘制绿色矩形及英文提示。若判断条件失败,则绘制红色矩形及英文提示!
2.使用playsound模块指定我们录制好的MP3文件,当判断条件符合时,则按照playsound模块原生函数播放MP3文件,达到语音警告提示效果!
首先导入相应模块
import paddlehub
import cv2
from playsound import playsound
指定paddlehub模块中的算法并赋值
module=paddlehub.Module(name="pyramidbox_lite_mobile_mask")
调用本机摄像头
cap=cv2.VideoCapture(0)
循环判断指定位置及遮挡区域
while(cap.isOpened()):
frame = cap.read()[1]
input_dict = {'data':[frame]}
results = module.face_detection(data=input_dict)
result = results[0]
设置绑定键盘按压事件
k = cv2.waitKey(1) & 0xFF # 判断按键
判断肯定条件时绿色字体和矩形
if result['data']!=[]:
label = result['data'][0]['label']
left = result['data'][0]['left']
right = result['data'][0]['right']
top = result['data'][0]['top']
bottom = result['data'][0]['bottom']
color = (0,255,0)
color2 = (0,255,0)
判断否定条件时红色字体和矩形,并播放语音警告提示
if label == 'NO MASK':
color = (0,0,255)
color2 = (0,0,255)
playsound('1.mp3')
cv2最后的绘制及显示交互窗口
cv2.rectangle(frame,(left,top),(right,bottom),color,3)
cv2.putText(frame,label,(left,top-10),cv2.FONT_HERSHEY_SIMPLEX,0.8,color2,2)
cv2.imshow('xianshi',frame)
判断监听键盘按压事件
if k == ord(' '):#退出
break
释放摄像头及内存
#释放摄像头
cap.release()
#释放内存
cv2.destroyAllWindows()
import paddlehub
import cv2
from playsound import playsound
#指定paddlehub模块的视觉算法
module=paddlehub.Module(name="pyramidbox_lite_mobile_mask")
#调用本机摄像头
cap=cv2.VideoCapture(0)
#循环判断面部区域位置
while(cap.isOpened()):
frame = cap.read()[1]
input_dict = {'data':[frame]}
results = module.face_detection(data=input_dict)
result = results[0]
#绑定键盘监听事件
k = cv2.waitKey(1) & 0xFF # 判断按键
#当判断为肯定时,则绘制绿色矩形及文字
if result['data']!=[]:
label = result['data'][0]['label']
left = result['data'][0]['left']
right = result['data'][0]['right']
top = result['data'][0]['top']
bottom = result['data'][0]['bottom']
color = (0,255,0)
color2 = (0,255,0)
#当判断为否定式绘制红色矩形及文字
if label == 'NO MASK':
color = (0,0,255)
color2 = (0,0,255)
#打开录制的MP3语音文件
playsound('1.mp3')
#cv2最会的绘制及显示
cv2.rectangle(frame,(left,top),(right,bottom),color,3)
cv2.putText(frame,label,(left,top-10),cv2.FONT_HERSHEY_SIMPLEX,0.8,color2,2)
#显示交互窗口
cv2.imshow('xianshi',frame)
#监听键盘事件,并判断是否退出
if k == ord(' '):#退出
break
#释放摄像头
cap.release()
#释放内存
cv2.destroyAllWindows()