[发明专利]一种固定场景监控视频的回溯系统在审
申请号: | 202210513070.1 | 申请日: | 2022-05-11 |
公开(公告)号: | CN114817638A | 公开(公告)日: | 2022-07-29 |
发明(设计)人: | 张梓腾;宋玉成;张巾雅;徐建 | 申请(专利权)人: | 东南大学 |
主分类号: | G06F16/783 | 分类号: | G06F16/783;G06V40/10;G06V40/16;G06V10/44;G06V10/50;G06T7/246;G06T7/73 |
代理公司: | 南京瑞弘专利商标事务所(普通合伙) 32249 | 代理人: | 吴旭 |
地址: | 211189 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 固定 场景 监控 视频 回溯 系统 | ||
本发明公开了一种固定场景监控视频的回溯系统,包括视频分析单元、运动跟踪单元、人脸识别单元以及数据存储单元。视频分析单元用于对监控视频进行人体目标识别,当检测到人体目标时启动运动跟踪单元。运动跟踪单元用于对人体目标进行跟踪定位,并对运动姿态建模,得到运动姿态特征;过程中若检测到人体目标的人脸则同时启动人脸识别单元。人脸识别单元用于对人体目标的人脸进行识别并建模,得到人脸特征。当检测到人体目标离开固定场景时,对特征进行归档并存储于数据存储单元中;最后为人体目标对应的所述进入时间、人脸特征ID、运动姿态特征ID分别建立索引,在未来需要回溯时,可对目标人进行快速搜索。
技术领域
本发明涉及一种固定场景监控视频的回溯系统。
背景技术
目前在一些重要场点,都布置了大量摄像头实时监控并记录存储现场视频,当在未来某一时点需要回溯发生的事件时,则由人工按照时间调取录像档案。这种方法非常低效,尤其是在发生时间较为宽泛时,更是要耗费大量人力观看视频,找出所需关键的视频帧段。
视频图像中的人体运动追踪技术已经存在,且相关的模型已经可以直接应用。视频图像中的人体运动跟踪方法主要有两大类:基于学习的人体运动跟踪和基于模型的人体运动跟踪。
第一种,基于学习的人体运动跟踪方法:首先在训练的视频图像和目标视频图像数据库里提取精确的图像特征,然后学习训练视频图像数据库的图像特征与运动捕捉数据之间的映射,最后在目标视频图像上直接使用人体特征恢复三维姿态。该方法的缺点是提取精确的图像特征需要花费大量的时间,而且视频跟踪受到是否存在学习数据库的限制,若不存在学习数据库,则无法完成视频跟踪。
第二种,基于模型的人体运动跟踪方法:该方法不需要学习数据库,直接在目标视频图像上提取图像信息,建立目标图像与模型的相似度函数,然后对相似度函数进行优化从而在高维的状态空间中搜索最优的状态,从而获得准确的人体姿态。由于该方法只建立一个相似度函数,而用于优化相似度函数的方法在搜索最优结果时很容易陷入局部最优,导致跟踪到的人体姿态不准确,而且算法的时间复杂度高。
发明内容
发明目的:针对上述现有技术,提出一种固定场景监控视频的回溯系统,提高回溯的效率。
技术方案:一种固定场景监控视频的回溯系统,包括视频分析单元、运动跟踪单元、人脸识别单元以及数据存储单元;
所述视频分析单元用于对监控视频进行人体目标识别,当检测到人体目标时启动运动跟踪单元;
所述运动跟踪单元用于对人体目标进行跟踪定位,并对运动姿态建模,得到运动姿态特征;过程中若检测到人体目标的人脸则同时启动人脸识别单元;
人脸识别单元用于对人体目标的人脸进行识别并建模,得到人脸特征;
当检测到人体目标离开固定场景时,对特征进行归档并存储于数据存储单元中;其中,所述归档的数据格式为:
表A:字段:事件ID,进入时间,离开时间,视频文件名,人脸特征ID,运动姿态特征ID;
表B:字段:人脸特征ID,面部关键特征点;
表C:字段:运动姿态特征ID,运动姿态向量表;
最后为人体目标对应的所述进入时间、人脸特征ID、运动姿态特征ID分别建立索引。
进一步的,所述视频分析单元采用色彩空间直方图和轮廓特征来对监控视频进行人体目标识别。
进一步的,所述运动跟踪单元采用多目标跟踪算法和边缘跟踪算法组合来对人体目标进行跟踪定位,实现多目标同时跟踪定位。
进一步的,所述数据存储单元包括用于存储所述索引的Mongo DB数据库。
进一步的,当检测到多个人体目标时,对采集的所有人体目标排列其运动事件,归并同一个人的所有动作。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东南大学,未经东南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210513070.1/2.html,转载请声明来源钻瓜专利网。