[发明专利]目标跟踪方法、装置、电子设备及存储介质在审
申请号: | 202210897234.5 | 申请日: | 2022-07-28 |
公开(公告)号: | CN115345903A | 公开(公告)日: | 2022-11-15 |
发明(设计)人: | 王磊;李岩山;罗文寒;刘文军 | 申请(专利权)人: | 深圳大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06N3/04;G06N3/08 |
代理公司: | 广州嘉权专利商标事务所有限公司 44205 | 代理人: | 周翀 |
地址: | 518060 广东省深*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目标 跟踪 方法 装置 电子设备 存储 介质 | ||
1.一种目标跟踪方法,其特征在于,包括:
获取待检测视频序列;
从所述待检测视频序列的第一帧图像中提取包含待检测目标的局部图像作为示例图像,并将待检测视频序列的后续帧图像作为搜索图像;
将所述示例图像和所述搜索图像分别输入训练好的特征提取网络进行处理,得到第一特征图集和第二特征图集,其中,所述第一特征图集为所述示例图像对应的特征图的集合,所述第二特征图集为所述搜索图像对应的特征图的集合;
将所述第一特征图集和所述第二特征图集输入训练好的孪生互注意力模块进行处理,得到强化后的所述第二特征图集;
计算所述第一特征图集和强化后的所述第二特征图集的相似度特征图集,并根据所述相似度特征图集得到回归特征;
根据所述回归特征对所述搜索图像进行锚框回归,得到所述待检测目标在所述搜索图像中的位置,进而确定所述待检测目标在所述待检测视频序列中的位置。
2.根据权利要求1所述的目标跟踪方法,其特征在于,所述特征提取网络为总步幅可调整的深度残差网络,所述深度残差网络的总步幅的调整方法包括:
当所述深度残差网络的输入图像的尺寸为N*N时,将所述深度残差网络的总步幅调整为(N/M)*(N/M),使得所述深度残差网络的输出图像的尺寸为M*M。
3.根据权利要求2所述的目标跟踪方法,其特征在于,所述将所述示例图像和所述搜索图像分别输入训练好的特征提取网络进行处理,得到第一特征图集和第二特征图集,包括:
将所述示例图像输入训练好的深度残差网络进行处理,并将所述深度残差网络最后三个卷积层输出的特征图作为第一特征图集;
将所述搜索图像输入训练好的深度残差网络进行处理,并将所述深度残差网络最后三个卷积层输出的特征图作为第二特征图集。
4.根据权利要求1所述的目标跟踪方法,其特征在于,所述将所述第一特征图集和所述第二特征图集输入训练好的孪生互注意力模块进行处理,得到强化后的所述第二特征图集,包括:
获取来自于所述第一特征图集的第一特征图和来自于所述第二特征图集的第二特征图,其中,所述第一特征图与所述第二特征图对应;
将所述第一特征图分别输入过渡卷积层进行处理,得到第三特征图和第四特征图;
将所述第二特征图输入所述过渡卷积层进行处理,得到第五特征图;
将所述第三特征图和所述第五特征图进行归一化和转置,得到所述第一特征图对所述第二特征图的影响权重;
将所述第四特征图与所述影响权重相乘,得到强化后的第五特征图;
重复获取所述第一特征图集和所述第二特征图集中的特征图,并强化所述第二特征图集中的特征图直至在所述第一特征图集和所述第二特征图集中检测不到新的特征图为止,得到强化后的所述第二特征图集。
5.根据权利要求1所述的目标跟踪方法,其特征在于,所述计算所述第一特征图集和强化后的所述第二特征图集的相似度特征图集,并根据所述相似度特征图集得到回归特征,包括:
对所述第一特征图集和所述第二特征图集进行深度可分离互相关运算,得到所述搜索图像中与所述示例图像相似的局部像素区域,并将所述局部像素区域作为相似度特征图集;
将所述相似度特征图集输入回归分支,并进行归一化和加权,得到回归特征。
6.根据权利要求1所述的目标跟踪方法,其特征在于,所述根据所述回归特征对所述搜索图像进行锚框回归,得到所述待检测目标在所述搜索图像中的位置,进一步确定所述待检测目标在所述待检测视频序列中的位置,包括:
根据预设的多个不同尺寸的锚框和所述回归特征进行回归计算;
通过窗函数对多个回归计算后的所述锚框进行惩罚制约,以舍去位移变化过大的锚框;
对惩罚制约后的多个所述锚框进行非极大抑制,得到所述待检测目标在所述搜索图像中的位置;
获取所述检测目标在所述待检测视频序列中的每一帧图像中的位置,确定所述待检测目标在所述待检测视频序列中的位置。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳大学,未经深圳大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210897234.5/1.html,转载请声明来源钻瓜专利网。