[发明专利]一种基于新型响应图融合的目标跟踪方法在审
申请号: | 201911064621.5 | 申请日: | 2019-11-04 |
公开(公告)号: | CN111027586A | 公开(公告)日: | 2020-04-17 |
发明(设计)人: | 刘安安;张春婷;刘婧;苏育挺 | 申请(专利权)人: | 天津大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 天津市北洋有限责任专利代理事务所 12201 | 代理人: | 杜文茹 |
地址: | 300072*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 新型 响应 融合 目标 跟踪 方法 | ||
一种基于新型响应图融合的目标跟踪方法,以给定的第一帧目标物体的位置为中心,裁剪出一个搜索区域块,生成相应的训练标记图,进行深度回归模型的训练,使得预设的损失函数最小,得到训练好的深度回归模型;以前一帧预测的目标物体的位置为中心,裁剪出同样大小的搜索区域块,输入训练好的深度回归模型,经过特征提取和响应图融合生成最终的响应图,响应图的最大值代表预测的目标物体的位置;当获得目标物体的位置之后,对目标物体的大小进行尺度估计;由历史帧的搜索区域块和对应的训练标记图,对深度回归模型进行更新,并重复上述预测后续每一帧中目标的位置和尺寸。本发明能够更加准确地定位目标位置,从而提高目标跟踪的准确性。
技术领域
本发明涉及一种目标跟踪方法。特别是涉及一种基于新型响应图融合的目标跟踪方法。
背景技术
目标跟踪是计算机视觉算法中很有前途但又困难的研究领域,它因为在自动驾驶、交通流量监控、监视和安全、人机交互和医疗诊断系统等方面的广泛应用而赢得了广泛的赞誉。由于机遇和不同的跟踪挑战,目标跟踪是计算机视觉的一个活跃研究领域。在过去的几十年中,许多研究团队做出了巨大的努力,但是目标跟踪仍然有很大的潜力去进一步探索。目标跟踪的困难在于无数的挑战,例如遮挡、背景杂乱、光照变化、尺度变化、低分辨率、快速运动、视线消失、运动模糊、变形。
判别相关过滤器(DCF)在各种计算机视觉应用中得到积极利用,包括对象识别、图像配准、面部验证和动作识别。在目标跟踪中,许多算法使用相关过滤器来提高鲁棒性和有效性。最初,训练的需求使得相关滤波器不适合进行在线跟踪。在随后的几年中,误差最小平方和滤波器MOSSE[1]的发展改变了这种情况,它允许有效的自适应训练,它的目标是使傅里叶域中期望输出与实际输出之间的误差平方之和最小。传统说来,设计相关滤波器进行推理的目的是产生响应图,该响应图的场景中背景值较低而感兴趣区域值较高。一种这样的算法是带有内核的循环结构CSK跟踪器[2],它利用目标外观的循环结构并使用核正则化的最小二乘法进行训练。核化的相关滤波器KCF算法[3]使用高斯核函数执行目标跟踪,以区分目标物体与其周围环境。
得益于卷积神经网络CNN功能的强大表现,基于相关滤波器的跟踪器已经实现了卓越的性能。但是,基于傅立叶域中的相关优化容易受到边界效应的影响,与传统的基于相关滤波器的跟踪器不同,深度回归跟踪器尝试通过空间域中的梯度下降来获得近似解。他们将相关滤波器公式化为卷积运算,并构建了典型的卷积神经网络中使用的单通道输出卷积层。 FCNT[4]通过利用特征图选择策略,引入了一种完全卷积网络来利用多个CNN特征。Siamese[5]网络将两个输入连接起来并产生一个输出,目的是确定输入到网络的两个图像块中是否存在相同的对象。DSLT[6]学习跨多个卷积层的残差并使用收缩损失函数解决样本不平衡问题。用于目标跟踪的卷积残差学习算法CREST[7]利用残差学习来适应目标外观,并通过搜索不同尺度的图像块来进行尺度估计。
然而,目前的基于深度回归模型的目标跟踪方法,所使用的传统响应图融合方法都是通过简单的相加或者相乘的融合方式,这种融合方式对于目标运动超出视野外、旋转、遮挡等复杂的挑战情况不具有鲁棒性,容易引起边界框的漂移问题。
发明内容
本发明所要解决的技术问题是,提供一种可以提高目标跟踪准确性的基于新型响应图融合的目标跟踪方法。
本发明所采用的技术方案是:一种基于新型响应图融合的目标跟踪方法,包括如下步骤:
1)以给定的第一帧目标物体的位置为中心,裁剪出一个搜索区域块,并用高斯函数生成相应的训练标记图,进行深度回归模型的训练,通过梯度下降法迭代训练深度回归模型使得预设的损失函数最小,得到训练好的深度回归模型;
2)以前一帧预测的目标物体的位置为中心,裁剪出与步骤1)同样大小的搜索区域块,输入训练好的深度回归模型,经过特征提取和响应图融合生成最终的响应图,搜索响应图的最大值即代表预测的目标物体的位置;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911064621.5/2.html,转载请声明来源钻瓜专利网。