[发明专利]一种基于孪生网络的目标跟踪方法有效
申请号: | 201910930500.8 | 申请日: | 2019-09-29 |
公开(公告)号: | CN110807793B | 公开(公告)日: | 2022-04-22 |
发明(设计)人: | 申富饶;姜少魁;李俊;赵健 | 申请(专利权)人: | 南京大学;南京和光智能制造研究院有限公司 |
主分类号: | G06T7/246 | 分类号: | G06T7/246 |
代理公司: | 江苏圣典律师事务所 32237 | 代理人: | 胡建华;于瀚文 |
地址: | 210023 江苏省南*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 孪生 网络 目标 跟踪 方法 | ||
1.一种基于孪生网络的目标跟踪方法,其特征在于,包括如下步骤:
步骤1,使用ImageNetVID、GOT数据集生成训练集和验证集;
步骤2,使用步骤1生成的训练集和验证集训练网络N,所述网络N包括特征提取网络N1、卷积核K1、K2、K3以及全连接层C1;
步骤3,读入即将跟踪的图像序列或者视频的第一帧F1,并通过框选的方式指定所要跟踪的目标的位置L1;
步骤4:记录跟踪目标在第一帧的位置L1,并裁取视频的第一帧F1中L1位置的图像I1,将其输入特征提取网络N1,得到特征图M1;
步骤5:读入图像序列或者视频的下一帧F2,在上一帧的图像I1中选择目标位置周围的图像X输入特征提取网络N1,得到特征图M2;
步骤6:将特征图M1和特征图M2分别使用卷积核K1、K2进行卷积,得到特征图M3、M4;
步骤7:将两张特征图M3、M4进行卷积操作,得到新的特征图M5;
步骤8:在新的特征图M5上用卷积核K3进行卷积,得到更高抽象级别的特征图M6;
步骤9:将最后的特征图M6通过全连接层C1,输出结果;
步骤10:根据步骤9的输出结果,在当前帧画出目标的位置;
步骤11:重复步骤4至步骤10,直至处理完成整个视频或者图片序列。
2.根据权利要求1所述的方法,其特征在于,步骤1包括如下步骤:
步骤1-1:在当前长度为p的视频或者图片序列中随机选择n帧F1,F2...Fn,Fn表示第n帧的视频或者图片;
步骤1-2,对于步骤1-1中挑选的每一帧Fi,i取值为1~n,随机选择km帧p>kj>i;
步骤1-3,对于步骤1-2帧中的每一帧在当前帧附近随机范围内选取区域,作为要寻找的范围x,对应的Fi中目标所在区域作为要跟踪的目标template,template在x中的位置记做L;
步骤1-4:对两个数据集ImageNetVID、GOT分别执行步骤1-1到步骤1-3,数据集ImageNetVID中的图像执行完后得到的结果作为训练集,数据集GOT中的图像执行完后得到的结果作为验证集。
3.根据权利要求2所述的方法,其特征在于,步骤2包括如下步骤:
步骤2-1:将训练集中的数据划分为K个一组,每组训练数据包括要跟踪的目标template、要寻找的范围x以及目标位置L;
步骤2-2:将每一组数据对应的要跟踪的目标template和要寻找的范围x传入网络N中,计算得到网络输出O;
步骤2-3:计算输出O与目标位置的L1loss,L1loss表示预测值与真实值的绝对误差平均值,并通过反向传播算法更新网络N的参数,其中,每一组训练数据的L1loss计算公式为:
其中,1<=i<=K,1<=j<=4,Lij表示第i个数据的目标位置,Oij代表第i个数据对应的网络输出;
步骤2-4:循环2-1至2-3,直至训练集中的数据均训练完成。
4.根据权利要求3所述的方法,其特征在于,步骤4中,图像I1是RGB三通道图片。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京大学;南京和光智能制造研究院有限公司,未经南京大学;南京和光智能制造研究院有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910930500.8/1.html,转载请声明来源钻瓜专利网。