[发明专利]基于视频流数据的警服识别方法在审
申请号: | 201910543624.0 | 申请日: | 2019-06-21 |
公开(公告)号: | CN110427808A | 公开(公告)日: | 2019-11-08 |
发明(设计)人: | 杨贤文 | 申请(专利权)人: | 武汉倍特威视系统有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62 |
代理公司: | 武汉维创品智专利代理事务所(特殊普通合伙) 42239 | 代理人: | 余丽霞 |
地址: | 430074 湖北省武汉市东湖新技术开*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 警服 视频流数据 监狱 活动目标 活动区域 人身安全 人体目标 人员管理 特征匹配 颜色匹配 监舍 匹配 执勤 检测 保证 | ||
1.基于视频流数据的警服识别方法,其特征在于,包括以下步骤:
步骤一、视频流数据获取
在监狱的监舍囚犯活动区域设置摄像头,获取摄像机视频流,并对视频流数据进行RGB转换,使其转换为相应的彩色图像;
步骤二、活动目标提取
通过对视频中获取的n帧画面进行背景建模,然后对n+1帧画面中的活动目标进行帧差,将n+1帧像素值I(x,y)减去背景模型中相同位置像素点的平均值u(x,y),得到差值d(x,y),然后将该差值d(x,y)与阈值TH进行比较,当差值d(x,y)大于阈值TH时,则标记为前景点;否则,标记为背景点;
通过前景点连续的帧来判断该活动目标是否连续运动,是否连续出现,若达不到连续N帧出现,则过滤;反之,该活动目标连续N帧出现,且N帧内活动目标的X、Y坐标大于i像素点,则判断为持续运动,得到活动目标的前景图片;其中,N=[1,200],N值的大小,反映为观察目标的时间跨度,此值越小,则给出判断的反应时间越快,越灵敏;i表示为水平和垂直方向上的位置像素量,i的取值范围[1,20],i越小,检测越灵敏;
步骤三、人体目标匹配
截取步骤二中判断为活动目标的前景图片与人体特征模型进行匹配,若大于相识度M,则判断前景图片中有人体目标,并进入下一步;反之,则判断待测目标图像中没有人体目标,并返回步骤二继续进行活动目标的提取操作;其中M=[0,1],M值越大,表示目标为人的可能性越高;
步骤四、警服颜色匹配
通过YUV颜色算法对步骤三中截取到的人体目标图片进行颜色还原,并通过对区块的监测将相近的同类颜色点进行合并连接;若监测到黑、蓝色块和/或合并后的黑、蓝色块区域大于L像素,则判断衣服颜色与警服匹配,进入下一步;反之则返回步骤二;其中,L像素为不同分辨率下警服最小像素要求值,在1080×720的分辨率下,L像素调整范围为100~1600个像素,对应于10×10~40×40像素的矩形;
步骤五、警服特征匹配
将步骤四中获取到的警服颜色匹配的人体区域图片与警服特征模型进行匹配,若相识度大于P则判断为警服类型符合规定,反之则返回步骤二,其中P的取值范围是[0,1],精度要求越高,则越接近1。
2.根据权利要求1所述的基于视频流数据的警服识别方法,其特征在于:步骤三中的所述人体特征模型是通过神经网络模型训练分类器训练和识别得到的,其具体方法为:
训练时,输入大量人体图片作为正样本,输入大量无人体图片作为负样本,通过神经网络模型训练分类器进行训练学习并得到人体特征模型;
识别时,输入运动目标的前景图片,通过运动目标的前景图片与神经网络模型训练分类器中的人体特征模型进行识别匹配,若大于相识度S,则判断前景图片中有人体目标,S=[0,1],S越高表明目标越符合人体特征。
3.根据权利要求1所述的视频流数据的警服识别方法,其特征在于,步骤五中所述警服特征模型是通过神经网络模型训练分类器训练和识别得到的,其具体方法为:
训练时,输入大量警服图片作为正样本,输入大量无警服图片作为负样本,通过神经网络模型训练分类器进行训练学习并得到警服特征模型;
识别时,输入符合警服颜色特征的区域图片,通过与神经网络模型训练分类器中的警服特征模型进行识别匹配,若大于相识度T,则判断区域图片为警服目标,其中T=[0,1],T值越高表明目标越符合警服特征。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉倍特威视系统有限公司,未经武汉倍特威视系统有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910543624.0/1.html,转载请声明来源钻瓜专利网。