[发明专利]一种基于多尺度行人检测的目标跟踪方法有效
申请号: | 201910335888.7 | 申请日: | 2019-04-24 |
公开(公告)号: | CN111862145B | 公开(公告)日: | 2022-05-17 |
发明(设计)人: | 王正勇;程玉;何小海;吴晓红;卿粼波;滕奇志;吴小强 | 申请(专利权)人: | 四川大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06V10/40 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 610065 四川*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 尺度 行人 检测 目标 跟踪 方法 | ||
1.一种基于多尺度行人检测的目标跟踪方法,其特征在于包括以下步骤:
(1)行人目标检测:输入视频,采用多尺度行人检测方法对视频中不同尺度的行人目标的位置进行有效的检测;初始化跟踪目标,采用基于卡尔曼滤波模型的跟踪算法预测目标的运动状态;
(2)目标特征提取:提取目标区域的表观特征、运动特征和形状大小特征,计算目标表观特征矩阵、运动特征矩阵以及形状大小特征矩阵,然后构建融合关联矩阵;
(3)目标关联:利用卡尔曼滤波模型迭代地预测和更新目标的状态,检测到行人目标的位置之后,采用匈牙利算法对视频中行人目标的检测结果和跟踪轨迹进行关联;
(4)目标状态更新:将行人目标的检测结果和跟踪预测信息相互结合,并更新行人目标的运动状态和跟踪轨迹;
步骤(1)中检测视频中不同尺度的行人目标的具体检测方法如下:
首先在基础网络中提取行人目标的特征,4层特征图由原始图像分别下采样8、16、32和64倍得到,将尺度特征用于目标位置预测以提高对不同尺度行人目标定位的准确度;当输入图像经过基础网络提取特征之后,在每层特征图中分别添加3个卷积预测块,通过卷积预测块对图像中目标的位置进行多次预测,逐步逼近目标的真实位置;在当前层完成预测之后,将当前层尺度特征继续传到下一层重新生成新的目标候选框,得到新的置信度分数和目标位置偏移量,最终在最后一层得到图像中行人目标的最终候选框。
2.根据权利要求1所述的方法,其特征在于步骤(2)中形状大小特征矩阵,计算方法如下:
行人目标的形状相似度ssimij计算方法为:
其中Ti表示第i个行人目标的检测候选框大小,Oj表示第j条跟踪轨迹中行人目标的形状大小,和分别表示它们的面积,Scom表示中间重叠部分的面积大小,w和h分别表示矩形框的宽度和高度;
通过行人目标的形状相似度可以建立形状大小特征矩阵S:
其中,ssimij为第i(i=1,...m)个检测框和第j(j=1,...m)条跟踪轨迹之间的形状大小相似程度。
3.根据权利要求1所述的方法,其特征在于步骤(2)中构建融合关联矩阵,构建方法如下:
计算{X1,…,Xi,…,Xn}和{Y1,…,Yi,…,Yn}之间的表观特征矩阵H:
其中,hij为第i(i=1,...m)个检测框和第j(j=1,...m)条跟踪轨迹之间的表观相似程度;
利用卡尔曼运动模型计算行人目标的运动特征矩阵P:
其中,Xi表示t时刻图像中检测到的第i个行人目标的表观特征,Yj表示t时刻图像中预测得到的第j条跟踪轨迹中行人目标的表观特征,pij是第i(i=1,...m)个检测框和第j(j=1,...m)条跟踪轨迹之间的运动相似程度;
将形状大小特征矩阵S、表观特征矩阵H和运动特征矩阵P进行加权结合,得到多特征融合的关联矩阵M:
M=αS+βH+γP (7)
其中,α、β和γ是融合关联矩阵的自适应加权系数,α、β和γ∈[0,1]且满足α+β+γ=1。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川大学,未经四川大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910335888.7/1.html,转载请声明来源钻瓜专利网。
- 上一篇:超耐盐雾水性工业漆
- 下一篇:一种汽车翼子板内衬防污材料及其制备方法