[发明专利]一种基于yolov3的多目标行人检测跟踪方法在审
申请号: | 202010123538.7 | 申请日: | 2020-02-27 |
公开(公告)号: | CN111476817A | 公开(公告)日: | 2020-07-31 |
发明(设计)人: | 周德龙;朱思聪;张捷;王国华 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 杭州斯可睿专利事务所有限公司 33241 | 代理人: | 王利强 |
地址: | 310014 浙江省*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 yolov3 多目标 行人 检测 跟踪 方法 | ||
一种基于yolov3的多目标行人检测跟踪方法,所述方法包括以下步骤:步骤1:改进的yolov3目标检测子网络,目标检测是基于检测跟踪的基本操作;步骤2:跟踪器的建立,将当前帧的目标与跟踪目标进行数据关联,需要先建立跟踪器;步骤3:数据关联,将当前帧的目标与跟踪目标进行数据关联,一般融合目标的运动信息以及目标的特征信息。本发明针对多目标跟踪中存在的行人小目标易漏检的问题,改进了YOLOv3的网络结构并应用于多目标行人跟踪。
技术领域
本发明涉及在线行人多目标跟踪的研究,具体是针对多目标跟踪中存在的行人小目标易漏检的问题,改进了YOLOv3的网络结构,使得模型对行人的检测精度有所提高从而改善了整个跟踪模型的性能。检测部分采用改进的YOLOv3算法检测目标,跟踪部分使用卡尔曼滤波算法预测目标运动轨迹,数据关联部分使用匈牙利算法对候选目标进行匹配关联。
背景技术
视频在线多目标跟踪作为智能视觉领域的一个重要方向,有着极大的场景应用价值。例如在视频监控的人流分析,智能城市交通、智能视觉导航等新兴人工智能应用场景发挥着极高作用。近几年随着人工智能的兴起,产生了基于深度学习的表观特征提取的改进模型以及深度学习网络侧重于关联匹配的各类模型下衍生的跟踪算法。
最近,越来越多的跟踪算法已开始采用各种形式深度神经网络。深层神经网络(DNN)可以从输入帧中提取复杂和抽象的特征,并且可以学习图像中目标的丰富表示形式。卷积神经网络(CNN)目前是空间图像特征提取的最新技术,并用于诸如图像分类或物体检测之类的任务中。该系列的一般分为四个步骤:一是检测阶段,即用目标检测网络提取出目标位置框;二是特征提取阶段,采取一种或多种特征提取算法分析检测提取外观信息以及运动信息用以预测每个跟踪目标的下一个位置;三是计算相似度阶段:将特征和运动预测用于计算前后两帧检测中目标的相似度距离分;四是匹配阶段:将当前帧中检测到的目标与已跟踪到的目标进行距离度量,得分小于一定阈值则关联成功,属于同一目标,为其分配相同ID。
发明内容
为了克服现有技术的不足,本发明提供一种基于yolov3的行人检测跟踪方法,针对多目标跟踪中存在的行人小目标易漏检的问题,改进了YOLOv3的网络结构并应用于多目标行人跟踪。
本发明解决其技术问题所采用的技术方案是:
一种基于yolov3的多目标行人检测跟踪方法,所述方法包括以下步骤:
步骤1:改进的yolov3目标检测子网络,目标检测是基于检测跟踪的基本操作,过程如下:;
步骤1.1:多尺度特征融合
主干网络是DarkNet-53网络,引入多尺度特征融合,再继续增加尺度,增加尺度数目可根据实际需求调整,选择输出为5种不同尺度的特征图,除第顶层特征图除外,其余特征图均融合相邻下层特征图的特征信息;
步骤1.2:k-means聚类产生锚点框
检测网络沿用K-means聚类的方法确定初始锚点框的位置,K-means聚类算法随机选取K个目标点,具体对象是训练集的边界框;
首先将真实的目标框中心坐标下采样到对应的特征图上;然后,如果该目标框中心落在对应的特征图网格中,然后在对应的特征图网格中使用K-means计算出的锚点框与下采样后的真实目标框进行IOU值计算;其次,取与目标框的最大IOU值对应的锚点来负责该对象的检测,记为正样本;而其他锚点与目标框的IOU值大于0.5的将被忽略,不计入负样本;IOU值小于0.5的锚点框则被记为负样本;
步骤2:跟踪器的建立,将当前帧的目标与跟踪目标进行数据关联,需要先建立跟踪器,过程如下:
步骤2.1:对运动模型进行估计
采取卡尔曼滤波作为运动估计模型,根据估计下一帧中目标的位置与检测网络检测到的目标位置进行数据关联;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010123538.7/2.html,转载请声明来源钻瓜专利网。