[发明专利]一种基于深度学习的空中目标跟踪方法有效
申请号: | 201710676396.5 | 申请日: | 2017-08-09 |
公开(公告)号: | CN107622507B | 公开(公告)日: | 2020-04-07 |
发明(设计)人: | 蔺素珍;郑瑶;任之俊 | 申请(专利权)人: | 中北大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06N3/04;G06N3/08 |
代理公司: | 太原科卫专利事务所(普通合伙) 14100 | 代理人: | 朱源 |
地址: | 030051 山*** | 国省代码: | 山西;14 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明涉及空中目标跟踪方法,具体为基于深度学习的空中目标跟踪方法,本方法按如下步骤进行:MDNet采集第一帧图像的正样本并进行随机取样,将随机取样后的样本作为数据集训练bounding‑box模型;其次,训练利用最小信息准则和最小二乘法确定阶数和参数的AR模型,估计目标运动轨迹并预测目标位置;然后,将该目标位置作为MDNet的采样中心,再利用bounding‑box回归模型调整目标位置,精确完成跟踪。本方法可以自适应提取空中目标特征,并结合AR模型有效利用目标的运动信息,可极大改善MDNet对目标特征的依赖性,在解决伪目标干扰的同时,提高跟踪精度。 | ||
搜索关键词: | 一种 基于 深度 学习 空中 目标 跟踪 方法 | ||
【主权项】:
基于深度学习的空中目标跟踪方法,其特征在于包括以下步骤:(1)构建多域卷积神经网络多域卷积神经网络包含五层隐藏层和一层二分类层,五层隐藏层分别是conv1、conv2、conv3、fc4和fc5,其中,conv1、conv2、conv3为卷积层,fc4、fc5为全连接层,二分类层为fc6,对目标和背景进行分类;(2)训练多域卷积神经网络中bounding‑box回归模型1)标定第一帧图像目标位置标定第一帧图像目标位置为x1、y1为目标位置坐标值,sw、sh为目标矩形框的宽和高;2)选择样本多域卷积神经网络以为中心采样生成W个回归样本,每个回归样本与目标实际位置重叠率的计算方法如下:式中,Rt为输出跟踪框区域,Rg为实际目标区域,area表示Rt和Rg的运算结果面积,N为视频序列帧数;设重叠率的阈值为L,大于等于L的样本为正样本,小于L的样本为负样本,然后从正样本中随机选取Q个样本输入网络训练bounding‑box回归模型;3)微调网络提取第一帧图像的正负样本经conv3得到特征图表示,将其中重叠率为[L‑0.1,L)的负样本的特征图作为难例样本与正样本一同输入fc4实现网络微调;(3)自回归模型训练与预测1)训练自回归模型自回归模型表示为:式中,{zt|t=1,2,…,T}是一个时间序列的目标位置的观测值,z为x或y,T为时间序列的长度,zt‑1,zt‑2,…,zt‑p为t时刻前1到p时刻的观测值,εt为预测误差,p为模型的阶数,为模型的参数;其中p和的确定方法如下:①利用最小信息准则函数AIC(p)计算p,p={1,2,…,pmax},其中pmax为模型阶数的上界,当AIC(p)最小时对应的p即为最终的p值,AIC(p)的确定方法如下:式中,是用最小二乘法对自回归模型拟合的残差方差估计,其计算方法为:式中,为误差方差;②根据最小二乘法:β=(ZTZ)‑1ZTY计算出不同T值对应的参数矩阵β,当残差方差估计为最小值时,对应的β即为最佳参数式中Z为T时刻前的观测值矩阵,Y为T+1时刻预测值的矩阵;2)预测目标位置将第n帧的前p帧目标位置的x、y坐标值分别代入训练好的自回归模型,即为预测到第n帧目标的位置;(4)网络测试多域卷积神经网络以预测到的第n帧目标位置为中心采样,采用多维高斯分布采样M个候选样本,并按照以下方式选择置信度最高的样本:式中,E*为置信度最高的样本,Ei为当前候选样本;将E*输入至bounding‑box回归模型进行调整使E*的区域和目标区域更接近,最终确定目标位置。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中北大学,未经中北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201710676396.5/,转载请声明来源钻瓜专利网。
- 上一篇:一种标签的印刷辊轴清洁设备
- 下一篇:一种用于彩印的烫金设备