[发明专利]一种社区监控场景下行人多目标跟踪方法在审
申请号: | 202010966065.7 | 申请日: | 2020-09-15 |
公开(公告)号: | CN112258552A | 公开(公告)日: | 2021-01-22 |
发明(设计)人: | 徐亮;张卫山;孙浩云;尹广楹;张大千;管洪清 | 申请(专利权)人: | 青岛邃智信息科技有限公司 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06F9/50 |
代理公司: | 北京联瑞联丰知识产权代理事务所(普通合伙) 11411 | 代理人: | 郭堃 |
地址: | 266500 山东省青岛*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 社区 监控 场景 行人 多目标 跟踪 方法 | ||
本发明涉及视频处理、机器学习、深度学习技术领域,具体公开了一种社区监控场景下行人多目标跟踪方法,该方法将多目标检测技术与多目标跟踪技术相结合,通过改进的Fast‑RCNN网络Fast‑RCNN+网络完成对行人多目标的检测,采用HOG统计和计算图像局部区域的梯度方向直方图来描述图像特征的方法完成对图像特征的提取工作,依据提取到的特征再利用Fast‑RCNN使用神经网络对图像进行分类检测;将多目标行人检测的数据通过关联矩阵的方法来建立数据关联;根据检测得到的具有关联性的目标数据并结合ReCNN网络模型实现基于上下文信息的行人多目标跟踪。本发明大大地提高了行人检测与跟踪的准确度和效率。
技术领域
本发明涉及视频处理、机器学习、深度学习技术领域,特别涉及一种社区监控场景下行人多目标跟踪方法。
背景技术
随着科学技术、信息技术的快速发展,智能视频监控技术在民用、商业、国防等领域的广阔应用前景引起了许多国内外专家的重视,纷纷投入大量研发人员、资源条件以促进其应用发展。近几年来深度学习的发展也进一步带动了视频监控技术的革新。此外,科学技术的发展带动了社会的进步,智慧社区、智慧城市已不再是概念上的话题,同时也为视频监控技术的研究提供了强有力的研究试点平台。因此,行人多目标检测与跟踪技术已成为现在视觉领域研究的热点,在交通、区域监控等众多领域都具有研究意义和应用价值。
行人多目标检测是指把采集到的视频图像序列中的运动目标从背景中分割出来,这一技术是对行人多目标进一步识别和跟踪定位的前提,也是智能行为分析的基础。到目前为止,运动场景下的多目标检测与跟踪技术尚不成熟,背景差分法是最早的运动目标检测方法之一,利用待测图像的背景来实时更新背景模型,但是该方法对背景的依赖性较大,当检测区域变化较大时,识别准确率会相对较低。时域帧差法,利用时域序列得到运动目标的位置信息,但是目标的速度对结果影响较大,检测结果中含有大量的噪声。行人多目标检测与跟踪的发展任重而道远。
行人作为社区监控场景下的重要目标之一,行人多目标检测与跟踪应用在智慧社区领域有着重要的研究意义与应用发展。但是,社区监控场景下,由于场景较复杂,行人属性难以辨识不定性较强,再加上天气变化大,诸多场景因素为多目标检测与跟踪带来巨大困难。精准的检测与跟踪能够解决社区内众多问题,例如:社区内有陌生人口进入,物业通过描述的人体属性与视频监控中人物进行识别定位跟踪,保障了社区安全与稳定。行人多目标检测与跟踪对智慧社区的发展有重要的应用价值。
有鉴于此,在社区监控场景下需要提出一种可以提高对行人多目标检测与跟踪准确率的方法,来解决上述问题。
发明内容
为了解决复杂场景中行人多目标检测与跟踪准确率和效率较低的问题,本发明的目的是提供一种社区监控场景下行人多目标检测与跟踪方法。提出改进的Fast-RCNN网络模型实现对行人多目标的检测,在社区监控场景下建立上下文行人信息,利用ReCNN网络对上下文信息进行跟踪,该方法大大地提高了行人检测与跟踪的准确度和效率。
为了解决上述技术问题,本发明的技术方案是:
一种社区监控场景下行人多目标跟踪方法,包括以下步骤:步骤1:获取社区监控区域下的视频流,并对其进行去噪处理;
步骤2:获取视频中当前帧图像,采用HOG特征提取方法对当前图像进行行人多目标特征提取;
步骤3:根据提取到的特征,训练Fast-RCNN+网络,得到最优参数;
步骤4:利用训练好的Fast-RCNN+网络模型对视频图像实现行人多目标检测工作;
步骤5:将采集到的视频图像中的行人多目标数据建立关联矩阵;
步骤6:提取输入视频帧图像中包含上下文信息(行人的位置信息和背景信息)的特征;
步骤7:将提取的特征训练融合上下文信息的ReCNN网络,获得最优参数;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于青岛邃智信息科技有限公司,未经青岛邃智信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010966065.7/2.html,转载请声明来源钻瓜专利网。