[发明专利]一种基于跟踪片段置信度和外观学习的多目标跟踪算法在审
申请号: | 201711316057.2 | 申请日: | 2017-12-12 |
公开(公告)号: | CN108182693A | 公开(公告)日: | 2018-06-19 |
发明(设计)人: | 盛斌;张越青;肖佳平;田立武;周旭楚 | 申请(专利权)人: | 嘉兴慧康智能科技有限公司;上海交通大学 |
主分类号: | G06T7/20 | 分类号: | G06T7/20;H04N5/14;H04N7/18 |
代理公司: | 北京华仲龙腾专利代理事务所(普通合伙) 11548 | 代理人: | 李静 |
地址: | 314001 浙江省嘉兴市城南路1539*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 跟踪 多目标跟踪算法 相似度 置信度 关联 跟踪结果 计算检测 检测结果 检测信息 外观模型 增量式地 读入 遮挡 图像 学习 更新 全局 成功 | ||
本发明公开了一种基于跟踪片段置信度和外观学习的多目标跟踪算法,首先在线读入图像及其检测信息,然后计算检测结果与已得到的跟踪片段的相似度,进行跟踪片段与检测结果的局部关联计算,接着计算所有跟踪片段之间的相似度,进行跟踪片段之间的全局关联计算,从而实现了一个健壮且快速的在线多目标跟踪算法。本发明的方法能够准确快速地区分出每个目标,并且增量式地利用跟踪结果更新外观模型,跟踪片段在存在遮挡的情况下也能成功地进行关联。
技术领域
本发明涉及视频处理分析技术领域,具体是一种基于跟踪片段置信度和外观学习的多目标跟踪算法。
背景技术
目标跟踪是视频监控和视频分析中的重要内容,在智能监控、人机交互、机器人导航、医学诊断等方面有着广泛的应用。目标跟踪主要是指在视频的每一幅图像中确定出我们感兴趣的运动目标的位置,并把不同帧中的同一目标对应起来。
现有的目标跟踪算法主要分为批处理方法和在线方法两大类。批处理方法将所有帧的检测结果进行处理,把因为阻挡而间断的轨迹,即跟踪片段(tracklets)联系起来,如A.Andriyenko等人在2014年IEEE TPAMI第35期上发表的“Continuous EnergyMinimization for Multi-Target Tracking”(连续能量最小化的多目标跟踪)。在得到每一帧的检测结果后,将检测结果相连接得到短的跟踪片段,再将跟踪片段进行全局上的联系得到长的跟踪片段。因此,该方法的关键是全局关联度(global association)。然而,批处理方法在存在长时间阻挡的时候,因为难以区分不同目标而表现出不足。同时,这些方法需要事先对图像序列进行检测,而且计算量巨大,因此很难应用于实时的应用。
此外,还有一些在线的方法,如M.D.Breitenstein在2011年IEEE TPAMI上发表的“Online multiperson tracking-by-detection from a single,uncalibrated camera”(利用单个未校准的摄像机进行在线多人跟踪),F.Poiesi等人在2013年CVIU上发表的“Multi-target tracking on confidence maps:An application to people tracking”(置信度映射的多目标跟踪:一项人物跟踪的应用),根据帧与帧间的联系,利用累积到当前帧的信息来建立目标轨迹,因此可以用来实现实时应用。然而,因为该方法更难处理因为被遮挡而检测得不准确或未检测到的物体,在线方法往往产生的是间断的跟踪片段,在目标收到遮挡时会把目标跟丢。
发明内容
本发明的目的在于提供一种基于跟踪片段置信度和外观学习的多目标跟踪算法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种基于跟踪片段置信度和外观学习的多目标跟踪算法,具体步骤如下:
步骤一,本工作提出了基于跟踪片段的可检测性和连续性的跟踪片段置信度,用来处理频繁的被杂物或其他目标遮挡的情况;
步骤二,基于上一步的跟踪片段置信度,本工作阐述了多目标跟踪的问题,并利用不同的方法将跟踪片段相联系,以解决该问题:较可靠的跟踪片段具有较高的置信度,它们用于在局部与在线输入的跟踪结果相联系,而间断的跟踪片段具有较低的置信度,它们用于在全局与其他跟踪片段和检测结果相联系,基于这样的技术,跟踪片段可以根据在线输入的检测结果连续地延长,同时间断的跟踪片段可以无需反复的和高代价的关联度计算。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于嘉兴慧康智能科技有限公司;上海交通大学,未经嘉兴慧康智能科技有限公司;上海交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711316057.2/2.html,转载请声明来源钻瓜专利网。