[发明专利]基于Online Boosting的目标轮廓跟踪方法有效
申请号: | 201610657342.X | 申请日: | 2016-08-11 |
公开(公告)号: | CN106327527B | 公开(公告)日: | 2019-05-14 |
发明(设计)人: | 解梅;王建国;朱倩;周扬 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06T7/215 | 分类号: | G06T7/215;G06T7/149 |
代理公司: | 电子科技大学专利中心 51203 | 代理人: | 邹裕蓉 |
地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 权重 分类器 跟踪 跟踪目标 目标轮廓 像素 精细 分割目标 精细轮廓 视频帧数 训练样本 运动目标 在线学习 传统的 复杂度 图像帧 分块 衰减 递减 样本 图像 | ||
本发明提供了一种基于Online Boosting的目标轮廓跟踪方法,在目标精细跟踪的问题中使用超像素对含有跟踪目标的图像进行分块,每一个超像素被看做一个点,这降低了计算的复杂度;使用在线学习的方法来分割目标和背景。传统的Online Boosting算法中,训练样本的权重是相同的,不会随时间的变化而变化。但是在目标精细跟踪问题里面,由于运动目标时刻变化,所以对在线的分类器来说距离当前帧时间越久远的图像帧的权重应该越小,为了实现这种权重逐渐衰减的效果,本发明设计了一种样本权重随时间的久远程度而递减的Online Boosting分类器,随着视频帧数的增加,分类器的性能越来越好,从而实现准确的跟踪目标的精细轮廓。
技术领域
本发明属于计算机视觉领域,具体涉及智能监控领域。
背景技术
基于视频的目标精细轮廓跟踪技术不仅需要够跟踪目标的位置,而且还要精确地描述目标的形状,该技术是计算机视觉领域最基础的技术之一,可以得到目标轮廓的跟踪结果。上层算法进一步根据目标轮廓跟踪结果进行分析和处理,来实现对场景的理解、对目标动作的识别以及对人体行为的识别等应用。该技术的广泛的应用前景和很高的研究价值激发了国内外研究人员的浓厚兴趣。
基于视频的目标精细轮廓跟踪技术的关键在于时间一致性和空间一致性的表达。时间一致性描述了在连续帧中目标的相似性,空间一致性描述了在一帧图像中目标与背景的分辨能力。对视频中目标的精细轮廓跟踪被认为是一个二分类的问题,目前国内外已经出现了很多相关的算法,比如基于水平集的方法,该方法将运动的估计和目标的分割分成了两个单独的阶段,将运动估计的结果作为分割的输入。这样当运动估计不准确时,会影响分割的精度,在很多摄像头自身有运动的视频中,对运动的估计很难得到好的跟踪效果。为了解决摄像头运动的情况,人们提出来一种基于图割的方法,该方法将多个线索函数融合到一起,目标的运动信息通常是其中一个重要的线索函数,然而背景的运动场通常会干扰目标的运动信息,使得跟踪的目标轮廓不准确。还有一些半自动的分割方法,这些方法需要人为的标定一些目标和背景区域,这就在很大程度上限制了其应用领域。
发明内容
本发明为解决上述技术问题是,提供了一种快速准确的目标精细轮廓跟踪算法。
本发明为解决上述技术问题所采用的技术方案是,基于Online Boosting的目标轮廓跟踪方法,包括以下步骤:
1)初始化步骤:
1-1)将视频的第1帧图像分割成超像素;
1-2)对分割成超像素后的图像提取局部对数欧式距离协方差矩阵L2ECM特征X,L2ECM特征中每一列对应一个超像素的L2ECM特征x;将第1帧图像的L2ECM特征进行目标特征与背景特征的区分,得到每个超像素对应的分类标签y∈{-1,+1},+1表示目标,-1表示背景,最终得到图像的分类结果Y;
1-3)使用的L2ECM特征X和分类结果Y训练Online Boosting分类器h;
2)跟踪的步骤:
2-1)对视频中第t帧图像分割成超像素并提取L2ECM特征X,t=2,3,…,使用OnlineBoosting分类器h对特征矩阵X的每一列进行分类,得到分类结果Yp;
2-2)使用膨胀法连通目标中断开的区域,得到更新后的分类结果
2-3)使用L2ECM特征X和分类结果对Online Boosting分类器h进行更新,更新t=t+1,返回步骤2-1)处理视频中的下一帧图像;
其中,Online Boosting分类器h由M个弱分类器hm构成,弱分类器编号m∈{1,2,…,M};Online Boosting分类器h训练的具体步骤如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201610657342.X/2.html,转载请声明来源钻瓜专利网。