[发明专利]视频跟踪中自适应遮挡检测系统及方法有效
申请号: | 201910027720.X | 申请日: | 2019-01-11 |
公开(公告)号: | CN109886994B | 公开(公告)日: | 2021-07-20 |
发明(设计)人: | 乔宇;谷月阳 | 申请(专利权)人: | 上海交通大学 |
主分类号: | G06T7/223 | 分类号: | G06T7/223 |
代理公司: | 上海汉声知识产权代理有限公司 31236 | 代理人: | 庄文莉 |
地址: | 200240 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视频 跟踪 自适应 遮挡 检测 系统 方法 | ||
本发明提供了一种视频跟踪中自适应遮挡检测系统及方法,包括:背景跟踪器:根据目标跟踪器对目标的跟踪结果,跟踪遮挡目标的背景小块和目标周边的背景小块;遮挡检测器:根据目标跟踪器和背景跟踪器的跟踪结果,判断目标与背景小块之间的位置关系,输出遮挡目标的背景小块的位置;模板更新器:计算目标被遮挡的程度,当遮挡程度小于一阈值时,对目标模板进行更新,当遮挡程度大于等于阈值时,停止对目标模板的更新;搜索范围预测器:根据目标被遮挡的程度改变目标跟踪器对目标的跟踪范围。本发明引入背景跟踪器对背景小块进行跟踪,并利用先前帧的遮挡信息设定自适应阈值,从而能够更好的对背景与目标的关系进行判定,更加精准的检测出遮挡。
技术领域
本发明涉及计算机视觉技术领域,具体地,涉及视频跟踪中自适应遮挡检测系统及方法。
背景技术
视频跟踪是计算机视觉领域最重要的研究课题之一,在场景监控、人机交互、医学图像等方面有着重要的应用。视频跟踪即给出目标在视频序列第一帧中的初始位置,系统预测出目标在后续帧中的位置。视频跟踪系统一般由五个部分组成:运动模型(motionmodel)、特征提取器(feature extractor)、观测模型(observation model)、模型更新器(model updater)、整合后处理器(ensemble post-processor)。其中,运动模型基于对先前帧的估计,产生可能包含目标的候选区域;特征提取器对每个候选区域进行特征提取;观测模型根据特征提取的结果判断候选区域是否为目标;模型更新器控制观测模型的判别策略和更新频率;整合后处理器整合多个系统的输出,产生最终的结果。
目标表示法是视频跟踪算法重要的组成部分之一。早期的算法有Lucas andKanade算法,但这一算法没有考虑目标外观的变化。为了解决这一问题,基于子空间的算法相继被提出,包括Hager和Belhumeur提出的低维子空间表示法。近些年来,新的算法层出不穷:基于稀疏表示的算法,如mean shift算法、soft-threshold squares算法;基于彩色柱状图的算法,如histograms of oriented gradients、local binary patterns;含有判别模型的算法,如support vector machine,multiple instance learning.
为了更好的评价算法的性能,需要将其在合适的数据集上进行测试。目前主流的数据集有“目标跟踪基准”(Object Tracking Benchmark)数据集、“视频目标跟踪”(VisualTracking Benchmark)[数据集。在“目标跟踪基准”数据集中,目标具有以下不同的属性:光照变化(Illumination variation),尺度变化(Scale variation),遮挡(Occlusion),变形(Deformation),运动模糊(Motion Blur),快速运动(Fast motion),平面内旋转(In-planerotation),平面外旋转(Out-of-plane rotation),离开视野(Out of view),背景杂乱(Background clutter),低分辨率(Low resolution);在“视频目标跟踪”数据集中,对目标属性的标记具体到了每一帧。得到跟踪系统每一帧的输出结果后,将其与目标位置的真实值(ground truth)进行比较。常用指标有两种:重合率(Overlap Ratio)和中心位置误差(Center Location Error).重合率的计算公式为:
其中Bt为目标跟踪器输出的边界框,Bg为目标真实位置对应的边框。该指标反应的是系统的输出与目标真实位置重合的面积与二者所占面积的比值。比值越大表明跟踪结果越好。
中心位置误差的计算公式为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海交通大学,未经上海交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910027720.X/2.html,转载请声明来源钻瓜专利网。