[发明专利]一种视频目标跟踪方法、装置、设备及存储介质在审
申请号: | 202011495815.3 | 申请日: | 2020-12-17 |
公开(公告)号: | CN112614157A | 公开(公告)日: | 2021-04-06 |
发明(设计)人: | 高凯珺 | 申请(专利权)人: | 上海眼控科技股份有限公司 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06N3/04;G06N3/08 |
代理公司: | 北京品源专利代理有限公司 11332 | 代理人: | 孟金喆 |
地址: | 200030 上海市徐汇*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 视频 目标 跟踪 方法 装置 设备 存储 介质 | ||
本发明公开了一种视频目标跟踪方法、装置、设备及存储介质,包括:确定目标图像的第一目标特征图和第二目标特征图、以及待检测图像的至少一个待检测特征图,其中,所述目标图像和所述待检测图像包含跟踪目标;基于所述第一目标特征图和所述第二目标特征图,分别对所述至少一个待检测特征图进行处理,得到目标分类结果和目标回归结果;根据所述目标分类结果和所述目标回归结果,确定所述待检测图像的跟踪区域,实现视频目标跟踪。上述技术方案,通过目标图像的第一目标特征图得到目标分类结果,第二目标特征图得到目标回归结果,根据目标分类结果和目标回归结果确定待检测图像的跟踪区域,实现视频目标跟踪,提高了视频目标跟踪的适用性。
技术领域
本发明实施例涉及视频检测技术,尤其涉及一种视频目标跟踪方法、装置、设备及存储介质。
背景技术
在车辆年检中,需要对视频中的特定目标进行跟踪,比如人和特定零部件等,从而判断场景的合理性。通常可以基于检测员观看视频,检测员主观判断视频中是否有特定目标,是否满足要求。这种方法费时间,效率低,且结果不稳定。
现有技术中,可以基于目标检测和核相关滤波算法(Kernel CorrelationFilter,KCF)跟踪方法实现对各个视频帧的跟踪,该方法具体可以包括:先训练一个适用于场景的检测模型,然后检测出视频第一帧的目标及位置,然后通过KCF方法跟踪目标,完成各个帧的连续跟踪。上述方法虽然提高了效率及准确率,但是检测模型的适用性较差,若出现新类别的跟踪目标,现有的检测模型不能检测出视频第一帧的目标及位置,进而不能实现对视频帧的跟踪。
发明内容
本发明提供一种视频目标跟踪方法、装置、设备及存储介质,以实现当出现新类别的跟踪目标时,也可以对视频帧进行及时跟踪。
第一方面,本发明实施例提供了一种视频目标跟踪方法,包括:
确定目标图像的第一目标特征图和第二目标特征图、以及待检测图像的至少一个待检测特征图,其中,所述目标图像和所述待检测图像包含跟踪目标;
基于所述第一目标特征图和所述第二目标特征图,分别对所述至少一个待检测特征图进行处理,得到目标分类结果和目标回归结果;
根据所述目标分类结果和所述目标回归结果,确定所述待检测图像的跟踪区域,实现视频目标跟踪。
进一步地,确定目标图像的第一目标特征图和第二目标特征图、以及待检测图像的至少一个待检测特征图,其中,所述目标图像和所述待检测图像包含跟踪目标,包括:
将所述目标图像输入孪生神经网络,得到所述第一目标特征图和所述第二目标特征图;
将所述待检测图像输入特征金字塔网络FPN,得到所述至少一个待检测特征图;
其中,所述目标图像对应所述第一目标特征图和所述第二目标特征图,所述待检测图像对应所述至少一个待检测特征图。
进一步地,基于所述第一目标特征图和所述第二目标特征图,分别对所述至少一个待检测特征图进行处理,得到目标分类结果和目标回归结果,包括:
将所述第一目标特征图、所述第二目标特征图和所述至少一个待检测特征图输入区域生成网络,得到至少一个候选分类结果和至少一个候选回归结果;
基于预设判断条件比对所述至少一个候选分类结果、以及所述至少一个候选回归结果,并根据对比结果确定所述目标分类结果和所述目标回归结果。
进一步地,将所述第一目标特征图、所述第二目标特征图和所述至少一个待检测特征图输入区域生成网络,得到至少一个候选分类结果和至少一个候选回归结果,包括:
将所述第一目标特征图作为所述区域生成网络的第一卷积核,通过所述区域生成网络分别对所述至少一个待检测特征图进行处理,得到所述至少一个候选分类结果;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海眼控科技股份有限公司,未经上海眼控科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011495815.3/2.html,转载请声明来源钻瓜专利网。