[发明专利]基于深度学习和判别式模型训练的目标跟踪方法及存储器在审
申请号: | 202010918886.3 | 申请日: | 2020-09-04 |
公开(公告)号: | CN111815681A | 公开(公告)日: | 2020-10-23 |
发明(设计)人: | 陈盈盈;郑林宇;王金桥;卢汉清 | 申请(专利权)人: | 中国科学院自动化研究所 |
主分类号: | G06T7/246 | 分类号: | G06T7/246 |
代理公司: | 北京市恒有知识产权代理事务所(普通合伙) 11576 | 代理人: | 郭文浩;尹文会 |
地址: | 100190 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 判别式 模型 训练 目标 跟踪 方法 存储器 | ||
本发明涉及计算机视觉和模式识别领域,具体涉及一种基于深度学习和判别式模型训练的目标跟踪方法及存储器,旨在提高目标跟踪的定位精度。本发明的跟踪方法包括:在离线训练阶段,用深度特征提取网络从训练图像和测试图像中提取样本框特征,计算训练图像的样本框标签和测试图像的样本框第一标签;根据训练图像的样本框特征与标签,利用判别式模型求解器训练得到判别式模型;根据测试图像的样本框特征,用判别式模型预测得到其第二标签;并根据第二标签与第一标签计算网络预测损失以驱动深度特征提取网络的优化学习;在在线跟踪阶段,将训练好的深度特征提取网络用于基于在线判别式模型训练的目标跟踪算法中。本发明有效提高了目标跟踪的定位精度。
技术领域
本发明涉及计算机视觉和模式识别领域,具体涉及一种基于深度学习和判别式模型训练的目标跟踪方法及存储器。
背景技术
视觉目标跟踪是计算机视觉中的热门研究课题之一,也是基于计算机视觉的模式识别应用的一个重要研究方向。在一个视频序列中,给定第一帧中感兴趣的目标物体的状态(位置和尺寸),目标跟踪算法需要对整个视频序列中目标物体的状态进行估计。
当前,基于在线判别式模型训练的目标跟踪算法在多个公开数据库上取得了良好的精度和速度的平衡,因此,得到科研人员的广泛关注。现有的该类目标跟踪算法大多使用在目标分类任务中训练的深度卷积神经网络(例如ImageNet预训练模型)进行特征提取。然而,由于目标分类任务和目标跟踪任务存在本质的区别,因此在目标分类任务中训练的深度卷积神经网络所提取的特征对目标跟踪任务并不是最优的。具体地,目标分类任务要求深度卷积神经网络对同一类别的不同实例物体输出相近的特征,然而在目标跟踪任务中要求深度卷积神经网络对视频不同帧图像中的同一实例物体(即目标跟踪物体)输出相近的特征,且与整个视频中其他所有实例物体间输出差距较大的特征,即使某一实例物体与目标跟踪物体属于同一类别。这一对特征特性需求上本质的区别严重阻碍了当前使用目标分类任务中训练的深度卷积神经网络进行特征提取的基于在线判别式模型训练的目标跟踪算法的精度提升。
发明内容
为了解决现有技术中的上述问题,本发明提出了一种基于深度学习和判别式模型训练的目标跟踪方法及存储器,有效提高了目标跟踪算法的定位精度。
本发明的一方面,提出一种基于深度学习和判别式模型训练的目标跟踪方法,所述方法包括:离线训练阶段和在线跟踪阶段;
所述离线训练阶段包括:
利用深度特征提取网络分别从训练图像和测试图像中提取预定义的样本框的特征,得到所述训练图像的样本框特征和所述测试图像的样本框特征;并通过计算各样本框的中心位置与目标物体的中心位置间的高斯距离,分别得到所述训练图像的样本框标签和所述测试图像的样本框第一标签;
根据所述训练图像的样本框特征与所述训练图像的样本框标签,利用具有可微闭式解的判别式模型求解器训练得到判别式模型;
根据所述测试图像的样本框特征,用训练得到的所述判别式模型预测所述测试图像的样本框标签,得到所述测试图像的样本框第二标签;并将所述测试图像的样本框第二标签与所述测试图像的样本框第一标签进行对比,得到网络预测损失以驱动所述深度特征提取网络的优化学习;
所述在线跟踪阶段包括:
利用已训练的所述深度特征提取网络和所述判别式模型对待跟踪图像序列中的目标物体进行跟踪,并对所述判别式模型进行在线训练与更新。
优选地,所述深度特征提取网络包括:深度卷积神经网络、池化层和全连接层;
所述深度特征提取网络从输入图像中提取样本框特征的步骤包括:
使用所述深度卷积神经网络从所述输入图像中提取特征图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院自动化研究所,未经中国科学院自动化研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010918886.3/2.html,转载请声明来源钻瓜专利网。