[发明专利]一种基于运动检测的人群惊扰场景检测方法及系统有效
申请号: | 201810458062.5 | 申请日: | 2018-05-14 |
公开(公告)号: | CN108596157B | 公开(公告)日: | 2020-08-07 |
发明(设计)人: | 雷帮军 | 申请(专利权)人: | 三峡大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06T7/269;G06T7/254 |
代理公司: | 北京路浩知识产权代理有限公司 11002 | 代理人: | 王莹;吴欢燕 |
地址: | 443002 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 运动 检测 人群 惊扰 场景 方法 系统 | ||
本发明提供一种基于运动检测的人群惊扰检测方法及系统,所述方法包括:对待检测视频中的当前帧进行前景检测获取所述当前帧的前景区域,对所述当前帧进行差分检测获取所述当前帧的移动区域,基于光流算法获取所述当前帧的第一光流场;对所述前景区域、所述移动区域和所述第一光流场进行融合获取融合区域,将所述融合区域划分为一个或多个区域块;根据各所述区域块的光流直方图检测所述当前帧是否为人群惊扰场景。本发明一方面,通过将待检测视频中当前帧的前景区域、移动区域和第一光流场进行融合,从而获取更精确的前景,提高了人群惊扰检测的精度;另一方面,仅根据前景的光流直方图对人群惊扰场景进行检测,提高了运行速度。
技术领域
本发明属于安防监控技术领域,更具体地,涉及一种基于运动检测的人群惊扰场景检测方法及系统。
背景技术
随着经济的快速发展,在火车站、飞机场和购物中心等公共场所常常出现人流高峰。拥挤的人群给公共安全带来极大隐患。如果能对人群进行检测,及时发现人群惊扰的异常行为,就可以采取相应的解决方案,避免事故的发生。
目前,利用视频信息对人群惊扰的分析往往基于对人体的异常行为进行检测获取的。有文献记载了一种基于运动场局部统计特征分析的异常行为检测方法,通过建立运动光流场进行局部运动场定位和分析,进一步结合特征对的空间分布关系构筑整体特征表示,然后搜集大量样本进行基于支持向量机的大样本学习,先离线学习特定的一些动作,然后在线检测这些动作,如果已知的动作没有出现则认为是异常动作。但是,正常动作的空间是无穷大的,这种穷举式的方法只能限定于特定的小场景。另一篇文献基于对人体目标的检测和跟踪,提取人体运动的轨迹,然后对轨迹进行分析,研究阻塞和跌倒的轨迹变化,并专门针对它们建模。如果在实际运动中检测到符合模型的轨迹,则认为发生了阻塞或跌倒。但是,在比较复杂的大规模人群和拥挤人群中无法获取比较准确的轨迹跟踪结果。还有文献采用机器学习的方法,基于前景运动块进行基于神经网络的建模和学习。但是,很难选取到所有异常行为的样本。此外,基于深度学习的异常行为检测完全依赖标准的数据库本身定义什么是异常行为,而现实场景是多种多样的,对于那些数据库中不存在的情况无法检测出,因此不具有普适性。
综上所述,异常行为是很难清晰定义的一个概念,因此对异常行为的检测常常采用基于正负样本的离线学习再加上在线检测的方法。但是,由于对不同的人群以及对不同的场景,异常行为是不一样的,因此正负样本的选择非常困难,从而导致现有方法无法精确检测出人群惊扰的异常行为。此外,由于目前的视频异常检测考虑的因素过多,即使用的特征数量过多,导致计算量大,运行速度慢。
发明内容
为克服上述人群惊扰场景检测不精确的问题或者至少部分地解决上述问题,本发明提供了一种基于运动检测的人群惊扰场景检测方法及系统。
根据本发明的第一方面,提供一种基于运动检测的人群惊扰场景检测方法,包括:
对待检测视频中的当前帧进行前景检测获取所述当前帧的前景区域,对所述当前帧进行差分检测获取所述当前帧的移动区域,基于光流算法获取所述当前帧的第一光流场;
对所述前景区域、所述移动区域和所述第一光流场进行融合获取融合区域,将所述融合区域划分为一个或多个区域块;
根据各所述区域块的光流直方图检测所述当前帧是否为人群惊扰场景。
具体地,所述基于光流算法获取所述当前帧的第一光流场的步骤具体包括:
从所述当前帧之前的帧中选择一帧作为基准帧,基于光流算法计算从所述基准帧到所述当前帧的第二光流场和从所述当前帧到所述基准帧的第三光流场;
若所述第二光流场中各光流与所述第三光流场中的对应光流大小不同或方向不相反,则去除所述第二光流场中的各光流,获取所述第一光流场。
具体地,所述对所述前景区域、所述移动区域和所述第一光流场进行融合获取融合区域的步骤具体包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于三峡大学,未经三峡大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810458062.5/2.html,转载请声明来源钻瓜专利网。