[发明专利]一种基于高分辨率孪生网络的卫星视频目标跟踪方法有效

专利信息
申请号: 202010060627.1 申请日: 2020-01-19
公开(公告)号: CN111275740B 公开(公告)日: 2021-10-22
发明(设计)人: 杜博;邵佳;武辰 申请(专利权)人: 武汉大学
主分类号: G06T7/246 分类号: G06T7/246;G06K9/62;G06N3/04;G06N3/08
代理公司: 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 代理人: 王琪
地址: 430072 湖*** 国省代码: 湖北;42
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 高分辨率 孪生 网络 卫星 视频 目标 跟踪 方法
【权利要求书】:

1.一种基于高分辨率孪生网络的卫星视频目标跟踪方法,其特征在于,首先利用跟踪分支获得目标跟踪框,所述跟踪分支的基本框架是SiamRPN,包括孪生特征提取子网络和孪生区域生成子网络;然后利用微调分支将目标跟踪框移动到包含最多目标点数的区域,达到像素水平的精调,具体包括如下步骤:

步骤1,将首帧以目标为中心的图像块,记为模板Z,输入到高分辨率并行网络中,获得模板Z的高分辨率表征

步骤2,将当前帧的搜索区域图像块,记为搜索区域X,输入到高分辨率并行网络中,获得搜索区域X的高分辨率表征

步骤3,将模板Z的高分辨率表征和搜索区域X的高分辨率表征同时输入到孪生区域生成子网络,获得鲁棒的目标跟踪框,其中目标跟踪框的中心位置设为p;

步骤4,将当前帧的搜索区域X,输入到训练好的高斯混合模型中获得运动目标的侦测图,即一个二进制的运动前景掩模图,在这个掩模图上,以目标跟踪框为中心剪切一个图像块,即掩模图像块Patch I;

步骤5,在掩模图像块patch I上,采用MeanShift算法反复迭代将目标跟踪框移动到包含最多目标点数的区域,达到像素水平的精调,获得侦测位置p*;

步骤6,考虑到表面特征和运动特征的互补特性,将跟踪框中心位置p和侦测框中心位置p*进行进一步自适应融合,从而获得更加鲁棒精准的跟踪位置。

2.根据权利要求1所述基于高分辨率孪生网络的卫星视频目标跟踪方法,其特征在于:步骤6中的自适应融合的具体实现方式如下,

假设D(t)=[Dx(t),Dy(t)]是目标中心在t帧的侦测位置,T(t)=[Tx(t),Ty(t)]是目标中心在t帧的跟踪位置,采用线性插值进行融合,获得最终目标的位置P(t)=[Px(t),Py(t)]:

Px(t)=(1-η(t))Dx(t)+η(t)Tx(t)

Py(t)=(1-η(t))Dy(t)+η(t)Ty(t)

其中η是融合因子,其与目标跟踪框的大小和比例变化有关,计算方法如下:

η(t)=e-(r(t)*s(t)-1)γ

其中,[w,h]是Groundtruth的长和高,[wT(t),hT(t)]是在t帧时目标跟踪框的长和高,γ为目标跟踪框变化的惩罚因子。

3.根据权利要求1所述基于高分辨率孪生网络的卫星视频目标跟踪方法,其特征在于:所述高分辨率并行网络通过并行连接高分辨率到低分辨率卷积来保持高分辨率表示,并重复跨并行卷积执行多尺度融合来增强高分辨率表示。

4.根据权利要求1所述基于高分辨率孪生网络的卫星视频目标跟踪方法,其特征在于:所述目标包括运动的列车、小车、以及飞机。

5.根据权利要求2所述基于高分辨率孪生网络的卫星视频目标跟踪方法,其特征在于:γ的取值为1.6。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学,未经武汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202010060627.1/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top