[发明专利]一种基于颜色聚类补充学习的视频跟踪方法有效
申请号: | 201810778141.4 | 申请日: | 2018-07-16 |
公开(公告)号: | CN109064497B | 公开(公告)日: | 2021-11-23 |
发明(设计)人: | 宋慧慧;樊佳庆;张开华;刘青山 | 申请(专利权)人: | 南京信息工程大学 |
主分类号: | G06T7/277 | 分类号: | G06T7/277;G06T7/90;G06K9/62 |
代理公司: | 南京钟山专利代理有限公司 32252 | 代理人: | 戴朝荣 |
地址: | 210019 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 颜色 补充 学习 视频 跟踪 方法 | ||
本发明公开一种基于颜色聚类补充学习的视频跟踪方法,属于图像处理技术领域。包括输入上一帧状态及分类参数、对目标区域颜色聚类、根据聚类中心统计出直方图、计算颜色响应、计算相关滤波响应、颜色响应和相关滤波响应融合、更新分类器参数、输出当前帧状态及分类器参数八个步骤。通过对传统的颜色直方图补充学习跟踪方法进行分析和改进,有效地利用颜色分布的信息,采用聚类和统计颜色直方图手段,学到更有效的颜色聚类补充学习器并与传统的相关滤波学习器相融合,能够有效区分目标和背景,在目标发生遮挡、旋转、尺度变化、快速运动、光照变化等复杂情况下依然可以准确地跟踪目标。具有处理问题时更加稳健准确、适应性强、跟踪效果好等优点。
技术领域
本发明涉及一种基于颜色聚类补充学习的视频跟踪方法,属于图像处理技术领域。
背景技术
视觉目标跟踪是指从摄像机记录的视频序列中连续地推断特定目标运动状态轨迹的技术,是计算机视觉研究中非常重要的一个研究课题,可用于自动监控、机器人导航、人机接口等很多应用领域。目标跟踪不仅推动了图像处理、模式识别、机器学习和人工智能等领域的理论研究,也成为很多实用的计算机视觉系统必不可少的一个环节。尽管目标跟踪对于人类视觉系统而言是一个非常简单的任务,但对于计算机视觉而言,现有的目标跟踪算法性能还远没有达到人类视觉系统的智能。主要困难在于自然场景中的目标跟踪不仅要解决如何将目标与周围相似的背景区分开来,还要解决跟踪过程中目标由于姿态、光照和遮挡等因素导致的外观变化,需要有效地处理快速运动、遮挡,光照影响,背景杂波等多方面的问题。
目前,已有一些基于相关滤波的视频目标跟踪算法被用于进行快速的视频单目标跟踪,其中具有代表性的是基于补充学习的实时目标跟踪算法。但是,这些基于补充学习的实时目标跟踪算法仅仅利用了固定的颜色量化方法来统计直方图,而并没有有效利用颜色本身的分布情况,使得目标遇到光照剧烈变化或者背景混乱等干扰时,把背景或前景中少量出现的噪声颜色统计成普通特征,造成学到的颜色分类器效果不佳,容易导致跟踪失败。
发明内容
本发明要解决的技术问题是针对现有目标跟踪算法中颜色量化方法单一、容易导致跟踪失败的缺点,提出一种基于颜色聚类补充学习的视频跟踪方法,通过聚类和统计颜色直方图,学到更有效的颜色聚类补充学习器并与传统的相关滤波学习器相融合,使得跟踪算法在处理问题时更加稳健准确。
为解决上述技术问题,本发明提供一种基于颜色聚类补充学习的视频跟踪方法,包括输入上一帧状态及分类参数、对目标区域颜色聚类、根据聚类中心统计出直方图、计算颜色响应、计算相关滤波响应、颜色响应和相关滤波响应融合、更新分类器参数、输出当前帧状态及分类器参数,具体包括以下步骤:
(1)输入上一帧的跟踪结果以及上一帧训练好的分类器参数,这两个参数是前一帧的输出结果,可直接获得;
(2)对目标区域进行颜色聚类,根据上一帧跟踪结果,以其为中心在目标周围获取样本图片,然后对图片的原始(RGB)颜色特征u进行k均值聚类,得到若干个聚类中心ci,聚类中心通过下式获得:
其中,u是每个像素的RGB颜色值,ci是求得的第i个聚类中心;
(3)根据像素点u(每个像素的RGB颜色值)和聚类中心ci之间的欧式距离计算出距离向量,然后把该像素点归结到该聚类中心,根据聚类中心统计出聚类过的直方图,最后得到聚过类的颜色直方图编号特征ψ[u];
(4)计算颜色响应rcc(u),计算公式为rcc(u)=βtTψ[u];其中,βt是学到的颜色分类器系数,ψ[u]是得到的聚过类的颜色直方图编号特征,T是转置;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京信息工程大学,未经南京信息工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810778141.4/2.html,转载请声明来源钻瓜专利网。