[发明专利]结合全局和局部的目标跟踪方法、系统、设备、存储介质在审
申请号: | 202210529686.8 | 申请日: | 2022-05-16 |
公开(公告)号: | CN115205326A | 公开(公告)日: | 2022-10-18 |
发明(设计)人: | 申原 | 申请(专利权)人: | 新驱动重庆智能汽车有限公司 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06N3/04;G06N3/08;G06V10/764 |
代理公司: | 重庆市前沿专利事务所(普通合伙) 50211 | 代理人: | 张青龙;肖秉城 |
地址: | 401120 重庆市渝北区鸳鸯街道长*** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 结合 全局 局部 目标 跟踪 方法 系统 设备 存储 介质 | ||
1.一种结合全局搜索和局部搜索的目标跟踪方法,其特征在于,具体包括以下步骤:
S1:将待跟踪目标的当前帧图像输入局部跟踪器,根据局部得分置信度判断是否有待跟踪目标,若是则输出跟踪结果,并保存待跟踪目标的区域图像,然后输入下一帧图像,若否则进入S2;
S2:将待跟踪目标的当前帧图像输入全局检测器,提取可能存在待跟踪目标的候选框,并对提取出来的候选框按照筛选规则进行筛选;
S3:将筛选后的候选框重新输入局部跟踪器,判断是否有待跟踪目标,若是则输出跟踪结果,并保存待跟踪目标的区域图像,然后输入下一帧图像。
2.如权利要求1所述的一种结合全局搜索和局部搜索的目标跟踪方法,其特征在于,所述S1中,局部跟踪器采用stmtrack算法对待跟踪目标进行检测输出局部得分置信度,判断是否有待跟踪目标:
当局部得分置信度大于或等于设定的第一阈值时,则认为有待跟踪目标;当得分置信度小于设定的第一阈值时,则认为没有待跟踪目标;
公式(1)中,Softmax(Zi)表示局部得分置信度;其中Zi表示第i个候选框的输出值,N为输出候选框的个数;zn表示第n个候选框的输出值。
3.如权利要求1所述的一种结合全局搜索和局部搜索的目标跟踪方法,其特征在于,所述S2中,筛选规则包括根据度量函数计算全局得分置信度:
当全局得分置信度大于或等于设定的第二阈值时,则保留该候选框;当得分置信度小于设定的第二阈值时,则去除该候选框;
全局得分置信度的计算公式为:
公式(2)中,Softmax(zi)表示全局得分置信度;其中zi表示第i个候选框的输出值,N为候选框的个数;zn表示第n个候选框的输出值;α为调节系数;GIoU表示度量函数;
其中,
公式(3)中,C表示对于任意的两个A、B框,能够包住它们的最小方框,表示当前候选框的最大外接矩形A和上一帧待跟踪物体的最大外接矩形B之间交集和并集之比。
4.如权利要求1所述的一种结合全局搜索和局部搜索的目标跟踪方法,其特征在于,所述S2中,筛选规则还包括根据相似度计算全局得分置信度:
当全局得分置信度大于或等于设定的第二阈值时,则保留该候选框;当得分置信度小于设定的第二阈值时,则去除该候选框;
公式(4)中,α,β为调节系数,softmax(yi)表示相似度。
5.如权利要求4所述的一种结合全局搜索和局部搜索的目标跟踪方法,其特征在于,相似度的计算方法为:
将当前帧候选框区域图像经过ReID的一个卷积神经网络得到特征,将得到的特征与局部跟踪器中保存的待跟踪物体特征相乘得到相关性矩阵,再将相关性矩阵输入局部跟踪器进行卷积分类,从而输出相似度。
6.基于权利要求1-5任一所述方法的一种结合全局搜索和局部搜索的目标跟踪系统,其特征在于,包括局部跟踪器和全局检测器;
所述局部跟踪器用于判断当前帧图像是否有待跟踪目标,若有则输出跟踪结果,并保存待跟踪目标的区域图像,然后输入下一帧图像,若否则将当前帧图像输入全局检测器;
所述全局检测器用于提取当前帧图像中若干个可能存在待跟踪目标的候选框并进行筛选,将筛选后的候选框重新输入局部跟踪器进行待跟踪目标检测。
7.如权利要求6所述的一种结合全局搜索和局部搜索的目标跟踪系统,其特征在于,所述全局检测器对当前帧图像经过深度神经网络进行特征处理,包括调整尺寸、卷积、筛选。
8.如权利要求6所述的一种结合全局搜索和局部搜索的目标跟踪系统,其特征在于,所述局部跟踪器上布设有基于匹配的跟踪算法,用于输出当前帧图像的局部得分置信度;所述全局检测器上布设有基于检测的跟踪算法,用于输出当前帧图像的全局得分置信度,并根据全局得分置信度进行候选框筛选。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于新驱动重庆智能汽车有限公司,未经新驱动重庆智能汽车有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210529686.8/1.html,转载请声明来源钻瓜专利网。