[发明专利]一种基于多线程的多摄像头实时检测方法有效
申请号: | 201811197765.3 | 申请日: | 2018-10-15 |
公开(公告)号: | CN109446946B | 公开(公告)日: | 2022-03-18 |
发明(设计)人: | 赵云波;李灏;林建武 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G06V40/16 | 分类号: | G06V40/16;G06V40/10;G06V10/764;G06K9/62 |
代理公司: | 杭州天正专利事务所有限公司 33201 | 代理人: | 王兵;黄美娟 |
地址: | 310014 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 多线程 摄像头 实时 检测 方法 | ||
基于多线程的多摄像头实时检测方法,首先加载基于ResNet50和三重损失函数的行人重识别网络,构建检测人脸库,采用face_recognition库提取人脸库的特征向量,之后开始构建多线程系统,应用multiprocess库中的Queue构建队列,并采用daemon守护进程,之后通过Yolo3将人物定位并用Opencv裁剪出来,之后使用face_recognition库中的识别模块进行识别,若无人脸则采用行人重识别网络进行识别,最后通过多线程并行处理,可以在监控视频中对多个摄像头中的目标进行实时检测。
技术领域
本发明涉及对摄像头拍摄视频进行实时检测的方法。
背景技术
由于安防领域发展迅速,摄像头功能日益强大,现有的摄像头已经普遍具有通讯协议,可以实现有线和无线的远程视频读取。同时,由于安全的需求上升,越来越多的摄像头被安装在建筑物,街道等地方,起到监控的作用。由此警方等可以通过摄像头进行人物的监控,并且实时的处理多个摄像头提高效率。
人脸识别与行人重识别是识别特定行人的关键技术。但是由于目前行之有效的方法多采用深度学习神经网路,它占用内存大,同时计算量也较多,对于实时监控的场景很难进行处理。所以使用多线程技术,对于多个摄像头使用多个线程进行并行处理,这样子可以保证对于多源摄像头的视频不会有先后影响,同时也能保证一个较高的实时性。
发明内容
本发明要克服现有技术的上述缺点,提供一种基于多线程的多摄像头实时检测方法。
为了要实现实时性目的,本发明设计了一种基于多线程的多摄像头实时检测方法,可以有效提高实时性的要求,并不降低人脸识别以及行人重识别的精度。这对于实时目标检测,在效率上是一个非常大的提升,因为同一时间处理摄像头的数量增加,可以利用的信息也同时变多,使用者也能从更多的信息判断检测是否准确。
本发明实现上述发明目的所采用的技术方案为:
一种多线程的多摄像头实时监测方法,包括以下步骤:
步骤1.加载行人重识别网络:采用预训练的ResNet50网络,将ResNet50中全连接层前的输出作为行人特征,并采用三重损失函数构造网络,并通过Market1501数据集训练。
步骤2.建立人脸库,加载人脸识别网络:选用Python的第三方库dlib,和face_recognition进行人脸识别的判断,将检测目标的人脸图片加入到本地库进行特征提取。
步骤3.读取监控摄像头视频:监控摄像头大多采用有线的形式进行配置,通常搭载有Rstp协议,使用Opencv中的VideoCapture函数进行视频读取。
步骤4.人物裁剪步骤:将预下载的Yolo3权重放入指定目录下,加载Yolo3网络,将从摄像头读取的图片放入Yolo3中,得到行人的坐标,并裁剪出行人图片进行识别。
步骤5.构建多线程框架的步骤:选用Python自带的多线程库multiprocess,并设置多个队列用来存放多个摄像头的图片(数量取决于摄像头数量)。并通过主程序中的process.start()函数启动多线程服务。并采用daemon守护进程,保证其在后台运行,是多线程与运行前的环境隔离开来,保证父进程的运行。
步骤6.人物检测步骤:在单个子进程中,使用Yolo3的目标检测网络进行人物的识别,将裁剪下来的图片放入face_recoginition的人脸检测模块中检测是否有清晰人脸,如果有人脸的话可以进行人脸识别,在没有人脸的情况下,如果行人库中有人的话,则进行匹配,如果有匹配到人(欧式距离小于阈值),则识别成功并将人物框出来加上标签,如果没有匹配到的人,则无法判断;如果行人库没有人的话,则无法判断的
与现有技术相比,本发明技术方案的优点有:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811197765.3/2.html,转载请声明来源钻瓜专利网。