[发明专利]一种基于KCF混合MFO的快速运动目标跟踪方法在审
申请号: | 201811255830.3 | 申请日: | 2018-10-26 |
公开(公告)号: | CN109461166A | 公开(公告)日: | 2019-03-12 |
发明(设计)人: | 张焕龙;张建伟;张杰;张秀娇;陈键;聂国豪;陈青华;孔汉;杨光露 | 申请(专利权)人: | 郑州轻工业学院 |
主分类号: | G06T7/136 | 分类号: | G06T7/136;G06T7/246 |
代理公司: | 郑州优盾知识产权代理有限公司 41125 | 代理人: | 张真真;栗改 |
地址: | 450002 *** | 国省代码: | 河南;41 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 置信度 最大响应 快速运动目标 跟踪 跟踪目标 基图像 样本 搜索 目标状态参数 全局最优解 有效地实现 动态更新 复杂场景 计算目标 快速运动 随机选取 样本图像 优化模型 有效跟踪 持续性 初始化 帧内 视频 重复 | ||
本发明提出了一种基于KCF混合MFO的快速运动目标跟踪方法,其步骤如下:初始化目标状态参数和优化模型参数;执行KCF跟踪方法计算目标在前几帧内的最大响应值,并以此求出置信度阈值初始值;依据当前帧最大响应值与置信度阈值的关系,确定不同的基样本图像产生方式:当最大响应值高于置信度阈值,随机选取基图像样本,执行KCF方法跟踪目标;当最大响应值低于置信度阈值,执行MFO搜索机制搜索全局最优解,并作为新的基图像样本,然后执行KCF方法跟踪目标;动态更新置信度阈值,重复上述操作实现快速运动目标的有效跟踪。本发明对视频中快速运动的目标能够有效地实现持续性跟踪,提高了在复杂场景下跟踪方法的适应能力。
技术领域
本发明涉及目标跟踪的技术领域,尤其涉及一种基于KCF混合MFO的快速运动目标跟踪方法,实现目标的持续性跟踪,还包括目标在视频相邻图像帧间产生快速运动情况下的状态空间搜索机制和目标持续跟踪能力。
背景技术
视觉跟踪问题的重点是在视频中预测移动物体的轨迹。目前,视觉跟踪已经应用于许多实际应用中,如机器人服务、自动驾驶汽车、监视、人机交互等等。视觉跟踪是一个开放且具有挑战性的问题,跟踪器必须能够在很长一段时间内跟踪目标对象,即使是在复杂的场景中,比如目标漂移和背景遮挡。在初始帧,给定目标对象的初始位置,跟踪器应该能够在跟踪过程中克服目标的外观和背景的不可预测的变化,且在后续帧中找到目标对象。近几十年来,目标跟踪研究已经取得了很大的进展,但由于许多因素,如光照变化、遮挡、背景杂乱、尺度变化、变形和快速运动等因素,在计算机视觉方面仍是一个具有挑战性的问题。另外,由于跟踪器在一个以目标位于前一帧的位置为中心的局部区域搜索目标,如果目标发生快速运动或突变运动,超出跟踪算法的局部搜索范围,且没有针对目标重新确定和重新定位的恢复机制的情况下,当跟踪器输出错误的跟踪结果时,跟踪方法从错误的跟踪结果中形成一个不准确的模型,这可能会从根本上影响跟踪性能。
发明内容
针对现有运动目标跟踪方法的运行效率不高和通用性差的技术问题,本发明提出一种基于KCF混合MFO的快速运动目标跟踪方法,将飞蛾-火焰(MFO)搜索策略引入到核相关滤波跟踪器(KCF)设计中,基于传统局部搜索算法和优化全局搜索算法相结合的,并采用动态阈值判定对目标进行重新确定,提高了运行效率,能够适应快速运动的视频目标跟踪。
为了达到上述目的,本发明的技术方案是这样实现的:一种基于KCF混合MFO的快速运动目标跟踪方法,其步骤如下:
步骤一:读取第一帧图像的数据信息初始化目标的状态参数,设置MFO搜索和KCF跟踪方法的优化模型参数;
步骤二:利用KCF跟踪方法获得最大响应值,确定跟踪目标;
步骤三:根据KCF跟踪方法中设置计算置信度阈值的集合元素长度,依据目标的最大响应值,计算置信度阈值;
步骤四:依据当前帧的最大响应值与置信度阈值的关系,确定不同的基样本图像产生方式:如果第nf帧的最大响应值Rmaxnf<Thrnf-1,Thrnf-1为第nf帧的置信度阈值,采用飞蛾-火焰全局搜索获得基样本图像,确定基样本图像块区域,结合KCF方法实现目标跟踪;如果Rmaxnf≥Thrnf-1,则依据第nf帧目标在(nf-1)帧内的映射位置附近随机获得基样本图像块,执行KCF方法对运动平滑的目标进行有效跟踪;使用更新的基样本图像块构造循环矩阵;
步骤五:依据最大响应更新置信度阈值,确定新的基图像样本,返回步骤二,确定跟踪目标。
所述步骤二中的KCF跟踪方法获得最大响应值的方法为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于郑州轻工业学院,未经郑州轻工业学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811255830.3/2.html,转载请声明来源钻瓜专利网。