[发明专利]基于时间和空间网络的深度集成目标跟踪方法有效
申请号: | 201910201525.4 | 申请日: | 2019-03-18 |
公开(公告)号: | CN109934846B | 公开(公告)日: | 2023-06-06 |
发明(设计)人: | 胡昭华;陈胡欣;李高飞 | 申请(专利权)人: | 南京信息工程大学 |
主分类号: | G06T7/20 | 分类号: | G06T7/20;G06N3/0464;G06N3/045 |
代理公司: | 南京钟山专利代理有限公司 32252 | 代理人: | 戴朝荣 |
地址: | 210044 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 时间 空间 网络 深度 集成 目标 跟踪 方法 | ||
1.一种基于时间和空间网络的深度集成目标跟踪方法,其特征在于,所述目标跟踪方法包括:
采用VGG-16网络提取目标的深度特征,将相关滤波算法表示成一层卷积神经网络,以得到相关滤波网络,在相关滤波网络的基础上构建时间网络和空间网络,时间网络和空间网络分别用于捕捉目标的时间信息和空间信息,采用跳跃式连接的方式将相关滤波网络、时间网络以及空间网络相连得到深度网络;
训练深度网络,直至深度网络所包含的相关滤波网络、时间网络以及空间网络这三个模型全部收敛;
从当前帧的图片中提取第一搜索块,从前一帧的图片中提取第二搜索块,采用VGG-16网络提取第一搜索块和第二搜索块的特征,并且将提取的特征导入深度网络的三个模型中以生成响应映射,将每个模型视为弱跟踪器,利用自适应权重的集成学习算法引擎融合所有弱跟踪器得到最终的目标位置。
2.根据权利要求1所述的基于时间和空间网络的深度集成目标跟踪方法,其特征在于,所述采用VGG-16网络提取目标的深度特征是指,
提取了VGG-16网络的第三、四、五层上的特征作为目标的深度特征。
3.根据权利要求1所述的基于时间和空间网络的深度集成目标跟踪方法,其特征在于,所述将相关滤波算法表示成一层卷积神经网络,以得到相关滤波网络包括以下步骤:
获取卷积神经网络的代价函数,获取的代价函数为:
其中,M是样本的数量,X(i)表示第i个输入样本,Y(i)表示第i个样本所对应的高斯标签,L(·)代表第i个样本的损失函数,F(·)是第i个样本的网络输出即预测值,P(·)是正则化函数,Θ代表卷积滤波器,λ是正则化参数;
令M=1,采用l2损失函数,将l2范数作为正则化函数,代价函数改写为如下形式:
J(Θ)=‖F(X;Θ)-Y‖2+λ‖Θ‖2
其中,X表示输入样本,Y表示对应的高斯函数标签,当输入样本X通过一个卷积层时,其网络输出F(X;Θ)=Θ*X,*代表卷积。
4.根据权利要求1所述的基于时间和空间网络的深度集成目标跟踪方法,其特征在于,所述深度网络为:
F(Xt)=Fspatial(Xt)+FCF(Xt)+Ftemporal(Xt-1)
其中,Xt代表当前帧的特征映射图,Xt-1代表前一帧的特征映射图,Fspatial(·)代表空间网络的输出,FCF(·)代表相关滤波网络的输出,Ftemporal(·)表示时间网络的输出。
5.根据权利要求1所述的基于时间和空间网络的深度集成目标跟踪方法,其特征在于,所述训练深度网络包括以下步骤:
选择一个带有目标位置的输入帧,提取以目标位置为中心的训练块,将其放入网络框架中用于特征提取和响应映射,将获取的特征映射分别送入由相关滤波网络、时间网络以及空间网络连接成的深度网络中,同时训练相关滤波网络、时间网络以及空间网络这三个模型,直至三个模型全部收敛。
6.根据权利要求1所述的基于时间和空间网络的深度集成目标跟踪方法,其特征在于,所述将每个模型视为弱跟踪器,利用自适应权重的集成学习算法引擎融合所有弱跟踪器得到最终的目标位置包括以下步骤:
在视觉跟踪问题中,将弱跟踪器视为专家,设第l个专家的响应映射为:
其中k=3,4,5分别代表VGG-16网络的第三、四、五层;
则第l个专家的目标位置为:
最终预测的目标位置是多个专家加权的结果,即:
其中,是第l个专家的权重,L为弱跟踪器总数量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京信息工程大学,未经南京信息工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910201525.4/1.html,转载请声明来源钻瓜专利网。