[发明专利]一种基于可见光摄像机的报警监控方法在审
申请号: | 202011131393.1 | 申请日: | 2020-10-21 |
公开(公告)号: | CN112307916A | 公开(公告)日: | 2021-02-02 |
发明(设计)人: | 黄楠;祝清雷;吕俊杰;苏明辰;刘建梁;姜河;赵莹;赵寰;董辉 | 申请(专利权)人: | 山东神戎电子股份有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/32;G06K9/62;G06N3/04;H04N7/18;G08B13/196 |
代理公司: | 济南泉城专利商标事务所 37218 | 代理人: | 赵玉凤 |
地址: | 250101 山东省济南市高新开*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 可见光 摄像机 报警 监控 方法 | ||
本发明公开一种基于可见光摄像机的报警监控方法,本方法采用基于Faster R‑CNN的目标检测网络进行检测,选用ResNet‑101网络代替VGG作为特征提取网络,采用有残差模型组成的ResNet‑101网络解决了随着网络深度增加而导致的梯度消失或爆炸,以及网络衰退的问题。ResNet‑101网络提取的特征更加详细,提高了目标检测的正确率。
技术领域
本发明涉及一种报警监控方法,具体的说,是一种基于可见光摄像机的报警监控方法,属于报警监控技术领域。
背景技术
随着科学技术的发展,监控系统开始广泛应用于社会的各行各业,但目前大部分的监控系统需要人工来检查被监控区域是否有异常情况的发生,而长时间观看多个监控视频将会导致人工检查的准确率大大下降。目前部分监控系统是用来检查在被监控的区域是否有可疑人物的出现,解决这个问题可采用目标检测方法,目前的目标检测方法有背景差法、帧差法等。而由于监控的系统中的摄像机可能是处于非静止状态,这将导致获取的检测的图像的背景和颜色纹理非常复杂,如果采用一般的识别方法如背景差法、帧差法等,由于算法中背景建模的有效性比较差的缺点,检测结果将会出现误检、漏检等问题。
发明内容
针对现有技术的缺陷,本发明的目的在于提供一种基于可见光摄像机的报警监控方法,可以提高报警监控的准确度。
为了解决所述技术问题,本发明采用的技术方案是:一种基于可见光摄像机的报警监控方法,包括以下步骤:
S01)、在获取用户的检测指令后,或者在提前设置好的检测时间内,系统开始进行检测;
S02)、对可见光摄像机的视频进行截图,获取原始图像;
S03)、步骤S02获取的图像进行预处理和尺寸变换;
S04)、将步骤S03得到的图像,使用基于Faster R-CNN的目标检测网络对其进行目标检测,检测图像中是否有符合特征的可疑目标;
S05)、判断步骤S04的检测结果,如果没有可疑目标的出现,回到步骤S01;如果有可疑目标的出现,提醒客户,发出报警声并将步骤S04生成的检测图像展示给客户,然后等待客户的反馈结果;
S06)、根据步骤S5获取的反馈结果做出不同处理,如果客户确认为可疑目标,将步骤S04生成的检测图片进行保存,如果用户反馈该目标不是可疑目标,将步骤S02、S03、S04的图像删除,减少内存空间的占用;
S07)、判断是否达到检测结束时间,或者是否接到用户的停止检测命令,若是,则停止检测,否则回到步骤S02。
进一步的,步骤S04中基于Faster R-CNN的目标检测网络包括Fast R-CNN网络和RPN网络,RPN网络将图像的随机区域信息作为建议区域进行采样,训练它们可能包含目标的区域,Fast R-CNN网络进一步处理RPN网络采集的区域信息,确定区域内的目标类别,调整区域大小,定位目标在图像中的具体位置。
进一步的,基于Faster R-CNN的目标检测网络进行目标检测的过程为:
S41)、Fast R-CNN网络输入固定大小的图片,进入共享卷积层提取特征图;
S42)、将特征图传入RPN网络,通过一个基于滑动操作的卷积层来预测包含目标的窗口的位置,该卷积层进行两次卷积操作,一次用来判断该滑动窗口所在区域是否属于目标,如果属于目标,将保留建议区域并输入Fast R-CNN网络;如果将小窗口中的信息识别为背景,则丢弃建议区域;另一次的卷积操作用来计算建议区域的偏移位置,用来获取建议区域在实际图片的位置信息;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山东神戎电子股份有限公司,未经山东神戎电子股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011131393.1/2.html,转载请声明来源钻瓜专利网。