[发明专利]基于自适应目标响应的目标跟踪方法有效
申请号: | 201810550413.5 | 申请日: | 2018-05-31 |
公开(公告)号: | CN108876816B | 公开(公告)日: | 2020-07-10 |
发明(设计)人: | 田小林;张佳怡;伍丽荣;贾贺姿 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246 |
代理公司: | 陕西电子工业专利中心 61205 | 代理人: | 田文英;王品华 |
地址: | 710071 陕*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 自适应 目标 响应 跟踪 方法 | ||
本发明公开了一种基于自适应目标响应的目标跟踪方法,主要解决当目标发生外观形变、光照变化导致跟踪失败的跟踪问题。本发明实现的步骤如下:(1)确定待跟踪目标初始位置(2)计算相关滤波器权值;(3)预测目标框位置;(4)预测待跟踪目标尺寸;(5)构建自适应目标响应矩阵;(6)更新位移滤波器权值;(7)判断当前帧图像是否为待跟踪视频序列的最后一帧图像,若是,则执行步骤(8),否则,执行步骤(3);(8)结束跟踪。本发明通过基于自适应目标响应的目标跟踪方法,能够利用自适应目标响应计算位移滤波器权值,预测待跟踪目标位置和大小。
技术领域
本发明属于计算机技术领域,更进一步涉及计算机视觉技术领域中的一种基于自适应目标响应的运动目标跟踪方法。本发明可用于对视频监控、机器人导航和定位、无人驾驶机获取的视频序列中的运动目标进行跟踪。
背景技术
运动目标跟踪的主要任务是,从连续的视频图像序列中检测出运动目标,进而在每一帧图像中确定出运动目标的位置。随着人们对计算机视觉领域的不断深入认识,运动目标跟踪在该领域得到广泛应用和发展,目前已经存在大量的跟踪算法来实现运动目标跟踪。但是,由于遮挡、背景杂乱、外观形变、光照变化、视角变化等客观因素的影响,使得准确地跟踪目标仍然面临极大挑战。
北京航空航天大学在其申请的专利文献“一种基于组合判断策略的视觉目标跟踪方法”(专利申请号2017114224711,公开号108010067A)中公开了一种基于组合判断策略的视觉目标跟踪方法。该方法实现的具体步骤是,(1)针对目标尺寸变换问题,建立一个自适应尺度,从而自动调整跟踪框大小;(2)针对目标被遮挡后无法继续确定目标所在位置的问题,采用卡尔曼滤波对当前观测量进行预测,当目标重新出现后继续使用KCF算法跟踪目标;(3)针对目标快速移动造成跟踪失败的问题。该方法存在的不足之处是,因为该方法先针对目标尺寸变换自动调整跟踪框大小,然后在KCF算法跟踪目标中,使用调整后的跟踪框进行相关卷积,导致每一帧目标跟踪位置不准确,造成难以修正的漂移,当目标发生强烈光照变化、目标快速运动时无法实现长期准确地跟踪。
南京邮电大学在其申请的专利文献“一种基于KCF的改进型抗遮挡目标跟踪方法”(专利申请号2017105998427,公开号107657630A)中公开了一种基于KCF的改进型抗遮挡目标跟踪方法。该方法实现的具体步骤是,(1)针对目标尺寸变换问题,建立三个线程,三个线程分别检测待跟踪目标的三个尺度图像,从而自动确定目标尺寸;(2)针对目标遮挡问题,设置预设阈值,判定目标发生严重遮挡时,使用卡尔曼滤波器的预测结果作为目标位置,反之使用KCF跟踪器的预测结果作为目标位置。该方法存在的不足之处是,因为要判定目标是否发生严重遮挡,判定值阈值设置过高或过低导致判定是否遮挡出错,从而当目标发生遮挡、目标快速运动时无法实现准确地跟踪。
发明内容
本发明的目的是针对上述现有技术的不足,提出一种基于自适应目标响应的目标跟踪方法,以实现当目标快速运动、目标发生遮挡时对目标进行准确、有效地跟踪。
为实现本发明目的的思路是,首先,提取候选区域特征,利用候选区域特征构建自适应目标响应矩阵,用自适应目标响应矩阵计算位移滤波器的权值,利用候选区域特征和位移滤波器权值的卷积最大值位置作为待跟踪目标的位置。其次,提取多尺寸的待跟踪目标的目标特征,利用每一个目标特征和位移滤波器权值的作卷积操作,最大卷积值对应的待跟踪目标的尺寸作为待跟踪目标尺寸。最后,得到待跟踪目标的位置和尺寸。
本发明的具体步骤如下:
(1)确定运动待跟踪目标的初始位置:
(1a)输入含有待跟踪目标的彩色视频图像序列中的第一帧视频图像;
(1b)用待跟踪目标的初始位置和初始位置的长度和宽度确定一个矩形框,用该矩形框标出第一帧图像中的待跟踪目标;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810550413.5/2.html,转载请声明来源钻瓜专利网。