[发明专利]一种多目标检测追踪方法在审
申请号: | 202211530672.4 | 申请日: | 2022-12-01 |
公开(公告)号: | CN115861883A | 公开(公告)日: | 2023-03-28 |
发明(设计)人: | 王海波;张峰;李新玉;王永波;景文林;樊玉平 | 申请(专利权)人: | 国能宁夏灵武发电有限公司;南京南自信息技术有限公司 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V10/25;G06V20/70;G06V10/82;G06T7/11;G06T7/277;G06T5/00;G06N3/08;G06N3/0464 |
代理公司: | 江苏圣典律师事务所 32237 | 代理人: | 贺翔 |
地址: | 750400 宁夏*** | 国省代码: | 宁夏;64 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 多目标 检测 追踪 方法 | ||
1.一种多目标检测追踪方法,其特征在于:包括以下步骤,
步骤(1)、用数据获取装置获得待检测的目标物的实时数据,并对获得的实时数据进行预处理,得到预处理数据信息;
步骤(2)、将预处理图像数据输入至预先训练的端到端深度神经网络模型,预测该图像中的目标框和每个目标框表示身份的特征向量,得到预测框;
步骤(3)、对于第一帧,将所述目标框和特征向量标记为检测框,为每个检测框赋予一个追踪ID,对于第一帧之后的每一帧,用卡尔曼滤波器预测之前的检测框在当前帧中的运动状态,然后与深度神经网络模型在当前帧预测的目标框的位置和特征向量相比较,计算加权距离矩阵;
步骤(4)、根据距离矩阵,用匈牙利算法匹配当前帧的预测框和检测框的ID,并更新每个检测框的运动状态和特征向量。
2.根据权利要求1所述的一种多目标检测追踪方法,其特征在于:所述步骤(1)中的实时数据为视频流或连续图片,预处理为对视频截取每一帧图像进行预处理,所述步骤(3)中当前帧中的运动状态包括但不限于位置、速度。
3.根据权利要求2所述的一种多目标检测追踪方法,其特征在于:所述步骤(1)中用摄像头获取待检测的目标物的实时视频,对视频截取每一帧图像,包括通过预设的接口获取网络摄像头采集的视频流,并将所述视频流转化为3通道RGB矩阵格式的图片,将转化后的图片作为待检测的图片;所述预处理将所述图片进行预处理,首先基于预设的感兴趣区域,裁剪所述图片的感兴趣区域部分,然后将裁剪后的图片进行扩边缩放为预设的宽度和高度,扩边缩放将保持原图的比例,并将比例不足的部分用黑色填充,最后将缩放后的图片进行归一化处理。
4.根据权利要求1所述的一种多目标检测追踪方法,其特征在于:所述端到端深度神经网络模型,是一个在Darknet网络基础上,增加了嵌入层的网络模型,具体包括依序连接的一个卷积单元,Res1单元,Res2单元,Res8单元,第1分支点,Res8单元,第2分支点,Res4单元,两个Bottle单元,一个卷积单元,第3分支点,卷积单元,上采样单元;
上采样单元的输出与第2分支点进行拼接后,依序连接两个Bottle单元,一个卷积单元,第4分支点,卷积单元,上采样单元,该上采样单元的输出与第一个分支点进行拼接后,依序连接3个Bottle单元,box层,最后一个Bottle单元的中间输出连接一个嵌入层,与box层的输出拼接后连接第1个输出层;
第4分支点分别连接一个嵌入层和一个卷积单元、box层,再拼接后连接第2个输出层;
类似的,第3个分支点分别连接一个嵌入层和一个卷积单元、box层,再拼接后连接第3个输出层。
5.根据权利要求4所述的一种多目标检测追踪方法,其特征在于:所述卷积单元,包括依序连接的一个卷积层,一个Batch Normalization层,一个Leaky ReLU层;
所述Bottle单元,包括依序连接的两个卷积单元,其中第1个卷积单元的感受野为1×1,卷积核数量为前一层网络层卷积核数量的一半,步长为1,第2个卷积单元的感受野为3×3,卷积核数量为第1个卷积单元的两倍,步长为1;
所述ResN单元(N代表任意正整数),包括:依序连接的一个卷积单元和N个skip bottle单元;
所述skip bottle单元,包括:输入分为两个分支,一支连接两个卷积单元,然后与另一支相加,组成残差结构;
所述box层,为一个感受野为1×1、卷积核数为6的卷积层,用于表征网格目标的位置、置信度、类别;
所述嵌入层,为一个感受野为3×3、卷积核数为512的卷积层,用于表征网格目标的512维ID特征向量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于国能宁夏灵武发电有限公司;南京南自信息技术有限公司,未经国能宁夏灵武发电有限公司;南京南自信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211530672.4/1.html,转载请声明来源钻瓜专利网。