[发明专利]一种基于高阶图跨时域关联的多目标跟踪方法有效
申请号: | 201710015550.4 | 申请日: | 2017-01-10 |
公开(公告)号: | CN106875417B | 公开(公告)日: | 2019-10-08 |
发明(设计)人: | 韩光;余小意;李晓飞;段朦 | 申请(专利权)人: | 南京邮电大学 |
主分类号: | G06T7/238 | 分类号: | G06T7/238;G06T7/246 |
代理公司: | 南京知识律师事务所 32207 | 代理人: | 李湘群 |
地址: | 210003 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 高阶图跨 时域 关联 多目标 跟踪 方法 | ||
本发明公开了一种基于高阶图跨时域关联的多目标跟踪方法,首先根据多目标检测方法得到视频中各帧的检测结果;然后由这些检测响应和构建高阶边的限制函数F(vi,vj)来构建一个跨时域的普通高阶图;之后为了快速提取普通高阶图中包含的各个时域下的局部轨迹段集合,使用RANSAC‑style的优化方法将普通高阶图先转化成随机一致性高阶图,再进一步转化成普通的二阶图,最后对普通二阶图进行子图搜索,再将各个子图中多个轨迹段按照时域的先后顺序连接起来,形成目标长轨迹,从而使复杂场景中的多目标跟踪具有很好的鲁棒性。本发明充分利用复杂场景中多目标的运动信息和表象信息进行跨时域关联,解决了邻近目标表观相似时出现身份交换或者局部关联错误造成的跟踪失败问题。
技术领域
本发明属于智能视频监控领域,特别涉及一种基于高阶图跨时域关联的多目标跟踪方法。
背景技术
近年来,多目标跟踪算法越来越受到计算机视觉领域内学者的重视,多目标跟踪算法主要目的是同时定位并标记多个移动目标的位置,按照时域顺序连接各个标记位,进而获得多个目标的运动长轨迹。换句话说,目标跟踪技术实际上是利用输入的视频序列获得检测信息,并对其进行一定的关联处理,获得目标的跟踪轨迹。目前主流的多目标视频跟踪技术可以概括为两个部分:目标检测与目标跟踪。其中,目标检测部分的主要任务是从视频图像中检测出感兴趣的目标。可视化监视和监测系统通常采用静态摄像头,从所谓静止的背景中分离出运动物体,实现目标的检测。这种系统通常采用构建背景模型方式,利用阈值计算,检测出前景目标。目标跟踪部分主要任务是将检测获得的目标进行关联处理。基于轨迹关联的多目标跟踪算法是国内外学者研究的热点算法。轨迹关联算法的主要原理是将目标检测后获得的多个短小的跟踪片段进行多个层次的关联,最终获得目标的连续、平滑的跟踪轨迹。
发明内容
本发明的目的在于提出一种基于高阶图跨时域关联的多目标跟踪方法,首先根据当前主流的多目标检测方法得到视频中各帧的检测结果,然后由这些检测响应和构建高阶边的限制函数F(vi,vj)来构建一个跨时域的普通高阶图;之后为了快速提取普通高阶图中包含高阶子图,使用RANSAC-style的优化方法将普通高阶图先转化成随机一致性高阶图,再进一步转化成普通的二阶图,最后对普通二阶图进行子图搜索,再将最终得到的各个子图中的多个轨迹段按照时域的先后顺序连接起来,形成目标长轨迹,该方法使对杂场景中的多目标跟踪具有很好的鲁棒性,已有效地解决邻近目标表观相似时出现身份交换或者局部关联错误造成的跟踪失败等问题。
为了实现上述目的,本发明的技术方案是运用了一种基于高阶图跨时域关联的多目标跟踪方法,包括如下步骤:
步骤A、将长视频序列划分成N等份,在每个等分时间段中根据多目标的离线检测结果分别进行普通高阶图H的构建;
步骤B、通过逐步采样和建立多个候选连接样本来完成随机一致性高阶图到普通高阶图H的近似;
步骤C、为提高高阶子图搜素的效率进行随机一致性高阶图到普通二阶图H的转换;
步骤D、选择合适的权值测度函数来对普通二阶图中的子图进行搜索;
步骤E、根据贪婪算法解决以上搜索到的子图不符合物理限制的情况,再根据局部轨迹段出现的时序顺序进行连接,从而得到目标长轨迹。
进一步地,所述步骤A中具体包含步骤如下:
由于对一个长视频序列串行进行处理会非常耗时,不满足实时性的要求,故采用分层次并行处理的方法,即将此长视频序列分成N等份,每等份包含Ln帧,若最后一组时间段不足Ln帧,则并入前一组中。然后对每一组时间段分别根据高阶边的限制函数F(vi,vj)∈{0,1}构建自己的跨时域高阶图H=(V,E,α),其中V代表高阶图中的顶点(跟踪轨迹段),E代表高阶图中的高阶边,α代表属于顶点同一条高阶边的概率。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710015550.4/2.html,转载请声明来源钻瓜专利网。