[发明专利]一种基于多特征判别学习的实时目标跟踪方法在审
申请号: | 201710788553.1 | 申请日: | 2017-09-04 |
公开(公告)号: | CN107798686A | 公开(公告)日: | 2018-03-13 |
发明(设计)人: | 青春美;邓佳丽;徐向民;邢晓芬 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T7/277;G06K9/62 |
代理公司: | 广州市华学知识产权代理有限公司44245 | 代理人: | 冯炳辉 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 特征 判别 学习 实时 目标 跟踪 方法 | ||
技术领域
本发明涉及目标跟踪的技术领域,尤其是指一种基于多特征判别学习的实时目标跟踪方法,可用于智能视频监控、自动驾驶和人机交互等方面。
背景技术
目标跟踪是计算机视觉领域中最具挑战性的问题之一。它在不同的应用中起着至关重要的作用,特别是在军事、医疗、监控以及人机交互中有着重要的应用。最近几年来有许多算法都用于解决目标跟踪的问题,但是由于目标的形变,光照的变化,以及目标被遮挡等问题的影响,对于目标跟踪算法的性能受到了很大的影响。
目前的跟踪框架一般可分为两个模块:表达模型和跟踪模型。多数跟踪框架中表达模型提取目标特征多依赖于亮度信息,直到Lucas和Kanade提出了基于未处理信息的全局模板,一些方法使用亮度直方图来对目标表观建模,但是此种方法丢失了空间信息。为解决空间信息问题,提出了包含空间信息在内的多核描述子。
当光照变化时,目标的表观变化较剧烈。单一的光照强度信息非常容易受光照影响,并不能鲁棒的跟踪目标,因此提出了多种多样的光照不变性特征,如多种不受光照变化的纹理信息,如协方差区域描述子,局部二值模式。近期,在线增量子空间模型也被用于处理光照变化下目标跟踪。
由于目标颜色包含了较丰富的信息,近年来提出了多种基于颜色表观模型的跟踪算法,如基于颜色直方图的均值漂移Mean Shift算法,颜色空间使用多种颜色属性提出了自适应降维机制来跟踪目标。然而,单纯使用颜色特征使得跟踪算法对颜色相近的背景和低饱和度的跟踪目标不稳定。
多数实验表明,采取单独的一种特征信息不能够应对多种场景条件下的变化,没有任何一种单特征的算法能够处理所有场景下的跟踪问题。因此,融合多个特征进行目标跟踪成为了主流。多数研究者采用概率方法来融合多个线索,比如动态贝叶斯网络,蒙特卡罗算法,粒子滤波等。多线索跟踪算法中特征的选择与融合机制是目标跟踪的挑战。
发明内容
本发明的目的在于克服现有技术的不足,提出了一种可实现稳定、鲁棒的的基于多特征判别学习的实时目标跟踪方法,可有效解决目标跟踪中存在的光照变化、背景干扰、遮挡和实时性低等问题。
为实现上述目的,本发明所提供的技术方案为:一种基于多特征判别学习的实时目标跟踪方法,包括以下步骤:
1)获取视频中的灰度视频帧,使用Cross-bin分布场特征描述跟踪目标的亮度属性;
2)使用增强梯度直方图特征EHOG对跟踪目标的纹理多样性进行建模;
3)通过视频的彩色视频帧,提取颜色特征CN来保持颜色一致性;
4)将步骤1)、2)、3)中得到的多维度特征通过希尔伯特空间映射投影到高维特征空间,获得内积映射,包括如下步骤:
4.1)将获得的数据通过多通道相关滤波器将原始CSK扩展成多维特征,也就是将多维特征在在傅里叶域使用方差为σ的高斯权值求和计算成最终的特征;
4.2)使用判别学习的方法学习步骤1)、2)、3)中多维度特征响应图进行自适应融合;
4.3)利用步骤4.2)学习到的权值将不同线索的特征相应进行多线索加权,获得最终所有特征的加权置信图;
5)将步骤4.3)得到的置信图放入到CSK框架中进行跟踪,找到跟踪目标位置,然后更新模板进行目标追踪。
在步骤1)中,从标准视频库中选取一个待测试的视频序列,对于获取的总数量为T的视频序列,从第1帧开始,确定第t帧的目标数据x,t为1到T之间的任意帧,将它标记为xm,n,m和n代表灰度图像的行列值;
在步骤2)中,对于带标签训练数据(x1,1,y1,1),...,(xm,n,ym,n),其中xm,n为训练样本数据,ym,n为期望结果,需要计算多维度特征Ff(m,n,k),k表示灰度特征直方图的bin值,多维度特征包括亮度特征CDF、纹理特征EHOG和颜色特征CN,具体计算如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710788553.1/2.html,转载请声明来源钻瓜专利网。