[发明专利]基于深度迁移学习的目标跟踪方法有效
申请号: | 201811436746.1 | 申请日: | 2018-11-28 |
公开(公告)号: | CN109544603B | 公开(公告)日: | 2021-07-23 |
发明(设计)人: | 刘金华;吴姗;任桂平;徐信叶;徐牡莲;李永明 | 申请(专利权)人: | 上饶师范学院 |
主分类号: | G06T7/246 | 分类号: | G06T7/246 |
代理公司: | 北京超凡志成知识产权代理事务所(普通合伙) 11371 | 代理人: | 范彦扬 |
地址: | 334000 江西*** | 国省代码: | 江西;36 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 迁移 学习 目标 跟踪 方法 | ||
1.一种基于深度迁移学习的目标跟踪方法,其特征在于,包括:
获取视频图像序列,确认所述视频图像序列是否为第一帧视频图像;
若所述视频图像序列为第一帧视频图像,对所述视频图像序列进行离线训练处理;
若所述视频图像序列不是第一帧视频图像,对所述视频图像序列进行在线跟踪处理;
确认所有候选样本是否处理完成,若所有候选样本都处理完成,结束跟踪;
若所述所有候选样本没有处理完成,计算当前候选样本的置信度;
判断所述候选样本的最大置信度是否小于预设阈值,若所述候选样本的最大置信度小于预设阈值,对所述最大置信度对应的候选样本重新进行训练,并根据训练完成的特征调整深度学习模型参数;
若所述候选样本的最大置信度大于预设阈值,读取所述视频图像序列中的下一帧图像,进行所述离线训练和在线跟踪,以得到目标的跟踪结果和目标位置;
对所述视频图像序列进行离线训练的方法包括:
在所述第一帧视频图像中标定需要跟踪的目标,在所述目标的背景中选取预设数量的图片作为训练的负样本;
将所有训练样本归一化为像素大小为预设大小的图像;
采用深度学习模型对所有训练样本进行训练,获得学习到的先验结构特征信息;
采用迁移学习算法将所述先验结构特征信息迁移至所述在线跟踪处理流程;
对所述视频图像序列进行在线跟踪处理的步骤包括:
构造字典模板,并获得所述视频图像中的N个采样粒子的粒子状态;
对所述字典模板和N个采样粒子对应的候选样本进行重叠分块,得到每个分块的灰度特征、Haar特征;
将所述灰度特征和Haar特征与所述先验结构特征信息进行多特征结构稀疏表示;
利用块正交匹配追踪算法求解所述结构稀疏表示,获得所述采样粒子的稀疏表示系数;
应用最大后验概率方法计算所述目标的状态和跟踪结果;
将字典模板表示为目标子空间和背景子空间多个子空间的组合,以更新所述字典模板;
利用块正交匹配追踪算法求解所述结构稀疏表示,获得所述采样粒子的稀疏表示系数的步骤包括:
设定所述采样粒子的稀疏表示系数为其中:
其中,K表示提取的特征数量,表示第j类N个候选样本的第k个特征;
所述字典模板的线性表示为:
其中,表示第j类N个候选样本在特征k下的稀疏表示系数,表示残差,λ表示正则化因子,为矩阵wj转置后的第i行。
2.根据权利要求1所述的基于深度迁移学习的目标跟踪方法,其特征在于,采用深度卷积神经网络模型作为所述深度学习模型,采用深度学习模型对所有训练样本进行训练,获得学习到的先验结构特征信息的步骤包括:
将所述训练样本划分为多个批次;
在每个所述批次中的所有训练样本经过所述深度卷积神经网络模型传播后,更新一次网络节点权值,直至所述深度卷积神经网络模型收敛,获得所述先验结构特征信息。
3.根据权利要求1所述的基于深度迁移学习的目标跟踪方法,其特征在于,构造字典模板,并获得所述视频图像中的N个采样粒子对应的粒子状态的步骤包括:
以所述视频图像序列t时刻的第一帧为对象,构造第一个目标子空间U和第一个背景子空间R,所述字典模板表示为:DT-1=[D+[1],D-[1],I],其中,R为所述字典模板,I为单位矩阵;
根据所述视频图像序列在t-1时刻的状态,采用粒子滤波法采样得到N个粒子状态
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上饶师范学院,未经上饶师范学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811436746.1/1.html,转载请声明来源钻瓜专利网。