[发明专利]一种通过视频监控进行骚乱检测的方法在审
申请号: | 201711076363.3 | 申请日: | 2017-11-06 |
公开(公告)号: | CN109753854A | 公开(公告)日: | 2019-05-14 |
发明(设计)人: | 赵曼;闫聪聪 | 申请(专利权)人: | 北京航天长峰科技工业集团有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 100854*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视频监控 异常区域 速度场 小团体 速度场特征 图像坐标系 聚类中心 密度聚类 人群运动 速度差异 微观运动 相邻两帧 异常发生 异常行为 运动模式 正常区域 坐标映射 检测 光流 聚类 滤波 运动场 算法 光滑 滞留 微观 图像 合并 人群 分析 | ||
本发明提供一种通过视频监控进行骚乱检测的方法,首先通过计算相邻两帧图像间的光流确定人群运动的速度场,并对其进行光滑滤波,为介观小团体聚类提供可靠的微观运动信息;进而,采用DBSCAN算法进行密度聚类,将人群行为分为不同的行为类别,并将位置近邻、速度差异较小的运动模式合并为一个小团体类别,将微观运动场定位到介观层面进行分析;最后,根据速度大小将速度场特征空间划分为正常区域和异常区域,将聚类中心落在异常区域且滞留时间较长的类别视为异常行为,同时将速度场坐标映射到图像坐标系,确定异常发生的区域。
技术领域
本发明属于公共安全视频监控技术领域,涉及一种通过监控视频发现人群中是否存在骚乱现象的方法。
背景技术
通常人群骚乱会造成恶劣的社会影响,严重危害人身安全、社会治安,更可能威胁社会安定、国家安全。人群骚乱一般指在某一事件或某个活动过程中,因聚集在某处的人群过度拥挤,可能发生短时间内无法及时控制、制止的混乱场面。为了避免潜在的骚乱发生,使用了治安管制、安全检查等等措施,但传统的人工监督往往存在监管漏洞、时效性较差等问题,有时因为人群聚集、人员众多,还会造成二次伤害,造成严重后果。
发明内容
本发明的目的在于提供一种通过视频监控进行骚乱检测的方法,将公共场所区域的视频监控数据充分利用起来,及时发现排查异常情况,实现远程监控、智能监控、早期预警、实时报警的功能,保障了公共安全领域大范围的安防监控需要,提升监控智能化水平。
本发明的技术方案如下:
一种通过视频监控进行骚乱检测的方法,其特征在于:
(1)首先通过计算相邻两帧图像间的光流确定人群运动的速度场,并对其进行光滑滤波,为介观小团体聚类提供可靠的微观运动信息;
(2)进而,采用DBSCAN算法进行密度聚类,将人群行为分为不同的行为类别,并将位置近邻、速度差异较小的运动模式合并为一个小团体类别,将微观运动场定位到介观层面进行分析;
(3)最后,根据速度大小将速度场特征空间划分为正常区域和异常区域,将聚类中心落在异常区域且滞留时间较长的类别视为异常行为,同时将速度场坐标映射到图像坐标系,确定异常发生的区域。
本发明利用HS光流法确定人群运动的速度场,采用DBSCAN算法进行密度聚类,从而可根据速度大小做到骚乱检测,提高安防系统智能化水平。本发明能提高公共安全场景下的骚乱防控水平,能够及时、有效地发现控制骚乱现场。利用现有监控平台,无需增加硬件设备,充分利用已有资源,可实现快速、大范围部署。
附图说明
图1是本发明的数据处理流程图。
具体实施方式
如图1所示,本发明首先通过计算相邻两帧图像间的光流确定人群运动的速度场,并对其进行光滑滤波,为介观小团体聚类提供可靠的微观运动信息;进而,采用DBSCAN算法进行密度聚类,将人群行为分为不同的行为类别,并将位置近邻、速度差异较小的运动模式合并为一个小团体类别,将微观运动场定位到介观层面进行分析;最后,根据速度大小将速度场特征空间划分为正常区域和异常区域,将聚类中心落在异常区域且滞留时间较长的类别视为异常行为,同时将速度场坐标映射到图像坐标系,确定异常发生的区域。
具体实施步骤如下:
步骤1、建立视频缓窗口,从视频中提取图像,在该窗口内缓存3帧图像,以进行后续异常事件检测。运用Horn-Schunck光流法分别计算出前两帧图像和后两帧图像的光流场[u,v]:
其中,和为u和v的局部邻域平均值;n为迭代次数;u0和v0一般取值为零,是光流场的初始估计值;权重系数α为控制光滑度的参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京航天长峰科技工业集团有限公司,未经北京航天长峰科技工业集团有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711076363.3/2.html,转载请声明来源钻瓜专利网。