[发明专利]一种结合颜色比率特征的相关滤波跟踪方法有效
申请号: | 202011006205.2 | 申请日: | 2020-09-23 |
公开(公告)号: | CN111931722B | 公开(公告)日: | 2021-02-12 |
发明(设计)人: | 姜山;郭晓龙;丁大勇;顾鹏 | 申请(专利权)人: | 杭州视语智能视觉系统技术有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62;G06T5/40;G06T5/50;G06T7/246;G06T7/269;G06T7/90 |
代理公司: | 北京志霖恒远知识产权代理事务所(普通合伙) 11435 | 代理人: | 张荣鑫 |
地址: | 311100 浙江省杭州市余杭*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 结合 颜色 比率 特征 相关 滤波 跟踪 方法 | ||
本发明公开了一种结合颜色比率特征的相关滤波跟踪方法,包括以下步骤:初始化视频目标区域框;初始化目标模型与目标候选模型;在目标区域框的位置提取多通道特征;训练位置滤波器和尺度滤波器;在视频的下一帧目标区域框提取多通道特征;计算相关响应图,颜色响应图,融合响应图;获取目标的相对上一帧的位移,通过位移更新目标位置;计算尺度响应,获取目标相对上一帧尺度变化,还原出当前帧的目标区域框;更新目标模型与目标候选模型参数;在目标区域框位置提取多通道特征更新位置滤波器,尺度滤波器;重复上述步骤实现对目标的跟踪。在保持相关滤波跟踪算法实时性的同时充分利用目标和背景的颜色信息,提高跟踪的鲁棒性。
【技术领域】
本发明涉及视频运动目标视觉跟踪领域,特别涉及一种结合颜色比率特征的相关滤波跟踪方法。
【背景技术】
运动目标视觉跟踪技术在无人机视觉领域具有重要意义。视觉跟踪技术是指在给定视频第一帧中目标位置和大小等状态的基础上,在视频后续帧中估计目标的状态。视觉跟踪是计算机视觉领域的一个具有挑战性的问题,其挑战在于先验知识只有视频第一帧中目标的状态,对目标没有明确的建模。目标运动过程中的运动模糊,遮挡,形状和尺度变化都会造成跟踪目标的丢失。另外,无人机视觉跟踪实时性要求也对跟踪算法的复杂度提出了挑战。
目前,基于相关滤波的判别式跟踪算法在目标跟踪领域取得了较好的效果。相关滤波跟踪算法利用了循环矩阵的傅里叶变换对角化的性质,在扩充样本数量的同时极大减少了计算复杂度,取得了较好的跟踪效果和较快的速度。但是,传统相关滤波跟踪算法的循环移位假设带来了边缘效应, 使模型学习到了大量非真实的负样本,降低了模型的判别力。用于解决边缘效应的各类正则化相关滤波跟踪算法又破坏了相关滤波的闭合解,降低了算法的实时性。同时,相关滤波跟踪算法利用目标的模板形状特征来实现判别式跟踪,无法很好地应对目标在跟踪过程中的形变。因此需要对相关滤波跟踪算法进行进一步研究和改进,充分利用目标和背景的信息,在保持实时性的同时进一步提高跟踪性能。
【发明内容】
本发明的主要目的在于提供一种结合颜色比率特征的相关滤波跟踪算法,将颜色比率特征融合进相关滤波跟踪框架,以充分利用目标和背景的颜色信息,在保持跟踪算法实时性的同时提高跟踪算法的鲁棒性
为实现上述目的,本发明提供如下技术方案:
本申请公开了一种结合颜色比率特征的相关滤波跟踪方法,包括以下步骤:
a)初始化视频目标区域框;
b)初始化提取颜色比率特征所需的目标模型与目标候选模型的参数,所述目标模型和目标候选模型均为16×16×16的颜色直方图,所述目标模型统计以目标中心为中心,带宽以内的像素的颜色分布,计算如下:
其中C为归一化因子,k为核函数,为冲激函数,为像素颜色所对应的直方图下标,所述目标模型采用Epanechnikov核加权,所述目标候选模型统计区域相比目标模型扩大倍,不加权,计算如下:
其中Cs为归一化因子,ns为以目标中心x0为中心,带宽s.h以内的像素个数;
c)在目标区域框的位置提取13通道梯度直方图、颜色比率和灰度特征,分别乘以相应权重,组成的多通道特征;
d)采用上述的多通道特征训练位置滤波器和尺度滤波器;
e)在视频的下一帧目标区域框提取多通道特征;
f)根据上述的多通道特征和位置滤波器计算相关响应图,对颜色比率特征通过积分图计算颜色响应图,线性加权融合得到融合响应图;
g)通过上述融合响应图获取目标的相对上一帧的位移,通过位移更新目标位置,在该位置上提取多尺度梯度直方图特征;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州视语智能视觉系统技术有限公司,未经杭州视语智能视觉系统技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011006205.2/2.html,转载请声明来源钻瓜专利网。