[发明专利]一种基于自适应深度特征滤波器的多场景下目标跟踪方法有效
申请号: | 201910413779.2 | 申请日: | 2019-05-17 |
公开(公告)号: | CN110135500B | 公开(公告)日: | 2023-03-24 |
发明(设计)人: | 武港山;徐鹏飞 | 申请(专利权)人: | 南京大学 |
主分类号: | G06V10/44 | 分类号: | G06V10/44;G06V10/774;G06V10/771 |
代理公司: | 南京天翼专利代理有限责任公司 32112 | 代理人: | 奚铭 |
地址: | 210046 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 自适应 深度 特征 滤波器 场景 目标 跟踪 方法 | ||
一种基于自适应深度特征滤波器的多场景下目标跟踪方法,将原始图像的目标区域从RGB空间转换到颜色命名空间当中,减小颜色变化的干扰,然后计算目标区域的前景概率图,根据前景概率图使用前景区域提取到的特征进行训练,以缓解边界效应,有效抑制背景中的噪声,使得本发明能够自适应地提取目标特征。本发明使用多层深度特征分别在相应的相关滤波器中进行训练,并且自适应地根据跟踪效果、滤波器稳定性、历史响应等信息更新相应深度特征滤波器的权重,在不同场景中引导跟踪模型自适应地选择有用的深度特征,能够在多种复杂场景中鲁棒地跟踪目标。相比于现有技术,本发明具有鲁棒性高的优点,能够在多种复杂场景中准确地进行目标跟踪。
技术领域
本发明属于计算机视觉技术领域,涉及多媒体技术中的视频目标跟踪,为一种基于自适应深度特征滤波器的多场景下目标跟踪方法,通过使用深度特征相关滤波器,自适应地在多种复杂场景中鲁棒地跟踪目标。
背景技术
视频目标跟踪任务是使用第一帧中已经标记的目标区域信息,自动化地预测后续帧中的目标区域信息,这些信息包括了目标区域的位置和大小。视频目标跟踪是广大科研人员重点关注的领域之一,并且已经在现实生活中取得了诸如眼球追踪、自动驾驶、智能监控等许多实际的应用。总的来说,根据目标跟踪模型的不同,目标跟踪算法大体上可以分为基于生成式模型的跟踪和基于判别式模型的跟踪。一般而言,典型的基于生成式模型的目标跟踪方法首先进行初始化以确定目标区域的状态,然后对当前帧的目标区域进行建模作为当前区域的特征表述,最后在下一帧中使用滑动窗口搜索候选目标,选择与上帧中目标区域模型最相似的窗口作为新的目标区域,mean-shift和粒子滤波便属于这种跟踪模型。与生成式模型不同,判别式模型区分了前景和背景信息,通过训练分类器分离背景和前景目标,跟踪结果更为鲁棒,也成为广泛使用的跟踪方法。诸如KCF、C-COT便属于这种跟踪模型。
但是,现有的目标跟踪方法存在许多缺陷。第一,现有跟踪方法大多在训练时使用循环矩阵来获取正负样例,这样会引入边界信息从而造成很强的边界效应。汉明窗能在一定程度上解决这个问题,但是会屏蔽掉背景中的关联信息,并且当前景物体不分布在中心时会造成模型漂移。第二,传统的滤波模型直接使用颜色直方图、HOG等手工设计特征进行训练,这些低层次的信息在光照突变、非刚性形变等复杂条件下表现并不好。深度特征能够从更加抽象的层次对目标进行表示,但目前大多数方法仅使用单层神经网络进行特征提取,其他使用多层深度特征的方法也不能很好的与滤波模型融合。第三,目前的使用多层深度特征滤波器的跟踪方法通常对不同层的深度特征滤波器分配固定的权重。由于低层深度特征能够表示物体轮廓、边缘等低维信息,高层深度特征表示语义信息,因此在面对非刚性形变、遮挡等不同场景时,不同层深度特征的重要性也不同,固定的权重无法发挥深度特征强大的表示能力。第四,目前的跟踪方法通常设置固定的模型学习率来进行模型更新,在目标发生快速变化时会由于模型更新不及时而产生漂移,在发生漂移时又会由于更新过慢而加速错误在模型中的传播。
发明内容
本发明要解决的问题是:现有的视频目标跟踪技术存在的边界效应,不能很好地融合深度特征,深度特征滤波器权重固定,模型学习率固定,不能适应多种复杂场景的缺点。
本发明的技术方案为:一种基于自适应深度特征滤波器的多场景下目标跟踪方法,在视频目标跟踪过程中对视频帧进行处理,实现目标跟踪,包括以下步骤:
1)生成训练样例:第一帧的训练样例为手工标注的跟踪目标区域,后续帧的训练样例是预测出的目标区域,在训练样例上使用循环矩阵生成正样例和负样例,用于训练深度特征滤波器;
2)自适应地提取前景目标:先将原始视频帧图像的RGB颜色空间转换到颜色命名空间当中,然后在颜色命名空间当中计算颜色命名分布直方图,每个像素的前景概率使用颜色命名分布直方图近似计算,由贝叶斯准则推导出来,通过对先验概率进行近似化表示,通过对每个像素计算前景概率生成前景概率图,确定前景目标区域;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京大学,未经南京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910413779.2/2.html,转载请声明来源钻瓜专利网。