[发明专利]一种基于TLD算法框架的目标跟踪方法在审
申请号: | 201810202560.3 | 申请日: | 2018-03-12 |
公开(公告)号: | CN108447079A | 公开(公告)日: | 2018-08-24 |
发明(设计)人: | 李亚波;卿兆波;王满生 | 申请(专利权)人: | 中国计量大学 |
主分类号: | G06T7/269 | 分类号: | G06T7/269;G06T7/246;G06K9/62 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 310018 浙江省*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 检测器 跟踪器 跟踪目标 目标跟踪 算法框架 学习模块 判定 跟踪器模块 级联分类器 结构性约束 分类结果 滑动窗口 目标结果 目标位置 目标样本 初始化 初始帧 光流法 鲁棒性 实时性 视频帧 预测器 整合器 跟踪 级联 框选 算法 整合 并行 送入 扫描 修正 检测 预测 重复 更新 保证 | ||
本发明涉及一种基于TLD算法框架的目标跟踪方法,步骤是:(1)用户在初始帧框选跟踪目标,算法进行初始化。(2)跟踪器模块中的局部跟踪器通过光流法和级联预测器预测在下一帧中的位置。(3)检测器通过滑动窗口扫描和级联分类器对当前帧的目标进行检测,并将分类结果送入学习模块,其中跟踪器和检测器二者是并行工作的。(4)整合器通过对跟踪器和检测器得到的目标结果进行判定整合,确定最终的目标位置。(5)学习模块通过结构性约束对跟踪器和检测器的结果进行修正,对目标样本更新。(6)判定视频帧是否结束,若没有结束则重复(2)‑(4)过程直至跟踪结束。此方法能提高对跟踪目标的鲁棒性,同时能保证跟踪过程中的实时性。
技术领域
本发明属于目标跟踪领域,具体涉及一种基于TLD算法框架的目标跟踪方法。
背景技术
目标跟踪技术在计算机视觉领域作为一个热门的课题,研究价值和实用价值非常重要。所谓目标跟踪技术是指利用计算机及摄像设备模仿人类的视觉系统,通过摄像设备获取图像序列进行分析处理,计算出所需目标的参数,例如运动目标的坐标位置信息、目标区域、目标尺寸等等,根据目标的不同特征信息,对图像中的兴趣目标进行关联,得出兴趣目标的完整运动轨迹,它在多个领域有着重要的研究和应用价值,如民用领域中的智能交通系统,军事领域中的导航、制导等系统。
TLD算法是一种能实现对单目标的长时间在线跟踪的算法,其将跟踪算法与检测算法相融合适用于目标消失再次出现在视场中重新定位以及目标被遮挡的情况,通过在线学习机制对目标模型及跟踪参数进行更新来解决目标在跟踪过程所发生的形变,使得跟踪效果更加稳定、鲁棒。
TLD算法主要由四部分构成:跟踪器、P-N学习、检测器、整合器。跟踪器预测连续帧间目标的位置。检测器利用级联分类器对多尺度滑动窗口图像进行分类,完成目标的检测,P-N学习通过结构性约束消除级联分类器的分类误差,并更新跟踪器和检测器的参数,整合器将跟踪器的预测信息和检测器的检测信息进行整合,得到目标的最终位置。
TLD算法较好的解决了被跟踪目标在跟踪过程中的形变及被遮挡问题,能实现对目标的长时间在线跟踪,但当前的TLD跟踪算法计算量大,运算成本高,跟踪实时性较差,鲁棒性不强。
因此,针对以上问题可以看出当前的TLD跟踪算法在计算量、鲁棒性等方面提高空间还很大,如何从多个角度有效地提升TLD跟踪算法将在一段时间内是研究的重点。
发明内容
为解决现有TLD跟踪算法中存在的上述问题,本发明提出了一种基于现有TLD算法框架的跟踪方法,该方法能够在复杂环境下完成对目标的长时间跟踪,其跟踪效果要比TLD跟踪算法更加理想,减少了计算量,增强了鲁棒性。
为实现上述目标,本发明采用以下方案:
(1)在第一帧图像中框选跟踪目标,初始化算法参数;
(2)所述跟踪器预测目标在当前帧中的位置信息;
(3)所述检测器与跟踪器并行工作,确定目标检测结果;
(4)所述目标跟踪区域输入到学习模块中学习,更新;
(5)所述整合器将跟踪器得到的预测位置信息与检测器得到的目标位置信息综合,输出结果;
上述步骤(1)的具体内容是:手动框选待跟踪目标,初始化跟踪算法的参数信息并写入;
上述步骤(2)的具体内容是:
(21)将局部跟踪器采用均匀网格的方式分布在目标区域的不同位置,采用中值流跟踪器跟踪图像的局部区域,得到两帧之间运动目标的相关性;
(22)根据各个局部跟踪器的时间上下文关系,利用当前帧的目标位置信息预测下一帧局部跟踪器的正确跟踪情况;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国计量大学,未经中国计量大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810202560.3/2.html,转载请声明来源钻瓜专利网。