[发明专利]目标跟踪方法、装置、计算机设备和存储介质有效
申请号: | 201810867036.8 | 申请日: | 2018-08-01 |
公开(公告)号: | CN108961315B | 公开(公告)日: | 2020-02-18 |
发明(设计)人: | 赵艳丹;汪铖杰;曹玮剑;曹赟;程盼;黄渊 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | G06T7/246 | 分类号: | G06T7/246 |
代理公司: | 广州华进联合专利商标代理有限公司 44224 | 代理人: | 李文渊;何平 |
地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目标 跟踪 方法 装置 计算机 设备 存储 介质 | ||
1.一种目标跟踪方法,所述方法包括:
获取当前图像帧,根据上一图像帧中的目标区域和运动预测数据确定所述当前图像帧的目标候选区域;
在当前图像帧中截取与所述目标候选区域匹配的目标候选图像;
根据所述目标候选图像的图像特征确定所述当前图像帧的目标区域;
通过运动预测模型,并根据所述目标候选图像的图像特征,确定下一图像帧相对于当前图像帧的运动预测数据;
根据所述目标区域和所述运动预测数据,确定下一图像帧的目标候选区域;
所述通过运动预测模型,并根据所述目标候选图像的图像特征,确定下一图像帧相对于当前图像帧的运动预测数据包括:
将所述图像特征输入分类特征提取模型;
获取所述分类特征提取模型输出的分类特征;
以所述分类特征作为所述运动预测模型的输入,得到下一图像帧相对于当前图像帧的运动预测数据;
所述以所述分类特征作为所述运动预测模型的输入,得到下一图像帧相对于当前图像帧的运动预测数据包括:
通过运动预测模型,根据所述分类特征确定各预设预测分类分别对应的概率值;
确定最大概率值对应的预设预测分类;
获取确定的预设预测分类所对应的运动预测数据;
所述方法还包括:
获取模型训练数据;
从所述模型训练数据中读取当前训练帧和下一训练帧;
提取当前训练帧中的图像特征;
确定下一训练帧相对于当前训练帧的运动训练数据;
根据提取到的图像特征和确定的运动训练数据训练运动预测模型。
2.根据权利要求1所述的方法,其特征在于,所述在当前图像帧中截取与所述目标候选区域匹配的目标候选图像包括:
按照预设倍数在当前图像帧中扩大目标候选区域;
在当前图像帧中确定与扩大后的目标候选区域匹配的目标候选图像;
从当前图像帧中截取确定的目标候选图像。
3.根据权利要求1所述的方法,其特征在于,所述根据所述目标候选图像的图像特征确定所述当前图像帧的目标区域包括:
通过目标定位模型,并根据所述目标候选图像的图像特征,确定目标关键点位置;
根据所述目标关键点位置确定所述当前图像帧的目标区域。
4.根据权利要求3所述的方法,其特征在于,所述通过目标定位模型,并根据所述目标候选图像的图像特征,确定目标关键点位置包括:
将所述目标候选图像输入图像特征提取模型;
获取所述图像特征提取模型输出的图像特征;
以所述图像特征作为目标定位模型的输入,得到所述当前图像帧的目标关键点位置。
5.根据权利要求1所述的方法,其特征在于,所述获取所述分类特征提取模型输出的分类特征之后,所述方法还包括:
通过目标判定模型,并根据所述分类特征确定目标候选图像的置信度;
当确定的置信度大于等于预设置信度阈值,则执行所述以所述分类特征作为所述运动预测模型的输入,得到下一图像帧相对于当前图像帧的运动预测数据的步骤;
当确定的置信度小于预设置信度阈值,则结束目标跟踪。
6.根据权利要求1所述的方法,其特征在于,所述提取当前训练帧中的图像特征之后,还包括:
根据提取到当前训练帧的图像特征、标记的目标关键点位置和标记的置信度进行模型训练,得到目标定位模型和目标判定模型。
7.根据权利要求6所述的方法,其特征在于,所述根据提取到当前训练帧的图像特征、标记的目标关键点位置和标记的置信度进行模型训练,得到目标定位模型和目标判定模型包括:
根据当前训练帧和当前训练帧中的图像特征进行模型训练,得到图像特征提取模型;
以当前训练帧中的图像特征作为输入,以当前训练帧中标记的目标关键点位置作为输出进行模型训练,得到目标定位模型;
以当前训练帧中的图像特征作为输入,以当前训练帧标记的分类特征作为输出进行模型训练,得到分类特征提取模型;
根据当前训练帧标记的分类特征和当前训练帧标记的置信度进行模型训练,得到目标判定模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810867036.8/1.html,转载请声明来源钻瓜专利网。