[发明专利]一种多目标检测追踪方法在审
申请号: | 202211530672.4 | 申请日: | 2022-12-01 |
公开(公告)号: | CN115861883A | 公开(公告)日: | 2023-03-28 |
发明(设计)人: | 王海波;张峰;李新玉;王永波;景文林;樊玉平 | 申请(专利权)人: | 国能宁夏灵武发电有限公司;南京南自信息技术有限公司 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V10/25;G06V20/70;G06V10/82;G06T7/11;G06T7/277;G06T5/00;G06N3/08;G06N3/0464 |
代理公司: | 江苏圣典律师事务所 32237 | 代理人: | 贺翔 |
地址: | 750400 宁夏*** | 国省代码: | 宁夏;64 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 多目标 检测 追踪 方法 | ||
本发明属于计算机视觉多目标追踪应用领域,具体公开了一种多目标检测追踪方法,包括获取待检测的目标物的实时视频,得到预处理图像数据;将连续帧预处理图像数据输入至预先训练的端到端深度神经网络模型,预测该图像中的目标框和每个目标框表示身份的特征向量;用卡尔曼滤波器预测之前的检测框在当前帧中的位置,然后与深度神经网络模型在当前帧预测的目标框的位置和特征向量相融合,计算加权距离矩阵;根据距离矩阵,采用匈牙利算法匹配当前帧的预测框和检测框的ID,并更新每个检测框的运动状态和特征向量。本发明的有益效果在于:既可解决实时的多目标追踪问题,又解决目标重叠丢失、目标外观剧烈变化、目标检测的鲁棒性等问题。
技术领域
本发明属于计算机视觉多目标追踪应用领域,具体涉及一种多目标检测追踪方法。
背景技术
在计算机视觉领域,多目标追踪(Multiple Object Tracking,简称MOT)是指在给定连续多帧图片中对多个感兴趣的目标进行图像定位,赋予并维持它们的唯一ID的过程,通过这个唯一ID,可以在连续不同帧对同一物体进行追踪。
多目标追踪在智能监控、自动驾驶、虚拟现实和娱乐互动、医疗等领域都有重要的应用,因其学术和商业潜力,在计算机视觉中逐渐备受关注。比如在智能监控领域,通过对人员进行定位追踪,复原其行动轨迹,并通过对人员、车辆的追踪,预测其下一步的运动轨迹并进行预警,从而避免碰撞事故的发生。
虽然今天已经有各种方法处理多目标追踪问题,但是诸如目标重叠丢失、目标外观剧烈变化、目标检测的鲁棒性、处理速度的实时性不足等问题仍然是其面临的重大挑战。
因此,基于上述问题,本发明提供一种多目标检测追踪方法。
发明内容
发明目的:本发明的目的是提供一种多目标检测追踪方法,解决背景技术中传统方法所存在的问题。
技术方案:本发明提供的一种多目标检测追踪方法,包括以下步骤,步骤(1)、用数据获取装置获得待检测的目标物的实时数据,并对获得的实时数据进行预处理,得到预处理数据信息;步骤(2)、将预处理图像数据输入至预先训练的端到端深度神经网络模型,预测该图像中的目标框和每个目标框表示身份的特征向量,得到预测框;步骤(3)、对于第一帧,将所述目标框和特征向量标记为检测框,为每个检测框赋予一个追踪ID,对于第一帧之后的每一帧,用卡尔曼滤波器预测之前的检测框在当前帧中的运动状态,然后与深度神经网络模型在当前帧预测的目标框的位置和特征向量相比较,计算加权距离矩阵;步骤(4)、根据距离矩阵,用匈牙利算法匹配当前帧的预测框和检测框的ID,并更新每个检测框的运动状态和特征向量。
本技术方案的,所述步骤(1)中的实时数据为视频流或连续图片,预处理为对视频截取每一帧图像进行预处理,所述步骤(3)中当前帧中的运动状态包括但不仅限于位置、速度。
本技术方案的,所述步骤(1)中用摄像头获取待检测的目标物的实时视频,对视频截取每一帧图像,包括通过预设的接口获取网络摄像头采集的视频流,并将所述视频流转化为3通道RGB矩阵格式的图片,将转化后的图片作为待检测的图片;所述预处理将所述图片进行预处理,首先基于预设的感兴趣区域,裁剪所述图片的感兴趣区域部分,然后将裁剪后的图片进行扩边缩放为预设的宽度和高度,扩边缩放将保持原图的比例,并将比例不足的部分用黑色填充,最后将缩放后的图片进行归一化处理。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于国能宁夏灵武发电有限公司;南京南自信息技术有限公司,未经国能宁夏灵武发电有限公司;南京南自信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211530672.4/2.html,转载请声明来源钻瓜专利网。