[发明专利]一种基于深度学习的高速跨摄像头单目标跟踪方法及系统有效
申请号: | 201910811068.0 | 申请日: | 2019-08-30 |
公开(公告)号: | CN110728702B | 公开(公告)日: | 2022-05-20 |
发明(设计)人: | 李岩山;魏家立;周伟奇;刘星;刘瑜;王海鹏 | 申请(专利权)人: | 深圳大学;深圳市坪山区大数据资源管理中心 |
主分类号: | G06T7/292 | 分类号: | G06T7/292;G06N3/04;G06K9/62;G06V10/774;G06V40/10 |
代理公司: | 北京东和长优知识产权代理事务所(普通合伙) 11564 | 代理人: | 周捷 |
地址: | 518060 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 高速 摄像头 目标 跟踪 方法 系统 | ||
1.基于深度学习的高速跨摄像头单目标跟踪方法,其特征是:该方法包括:
步骤一、采用行人检测模型检测行人目标,输出每个摄像头下每个行人的检测框位置大小及检测得分;
步骤二、采用步骤一获得的检测框的交并比为依据,基于卡尔曼滤波算法进行多目标跟踪,获得运动轨迹集合;
步骤三、根据步骤二获得的运动轨迹集合,采用轨迹代表图片进行筛选,筛选轨迹特征中行人检测得分高的轨迹图片,筛选规则为:
I=argsort(s)
I′={l|l∈I and Sl<a}
式中,s为行人在轨迹中每帧的行人检测得分,Sl为行人在轨迹中第l帧的行人检测得分,I为按得分降序排名的索引集合,α为检测得分阈值筛选,I′为初次筛选后的图片索引,选取轨迹时间戳间隔最长的三张轨迹图片,使行人位置差异最大化,最终得到代表轨迹中行人检测得分较高且位置多样的轨迹图片获得轨迹特征中行人检测得分高的轨迹图片;
步骤四、采用预先训练好的行人再识别模型对步骤三获得的轨迹图片提取行人外观特征;
步骤五、在单摄像头域内,设定搜索约束条件和轨迹关联,将搜索范围内余弦距离最小的轨迹图片作为匹配轨迹,采用所述匹配轨迹进行关联,获得关联后的轨迹集合;
步骤六、对步骤五获得的关联后的轨迹集合,设计跨摄像头轨迹局部二部图关联的方向约束条件,最终匹配建立时空约束条件;
步骤七、根据步骤六的时空约束条件,基于轨迹方向约束的跨摄像头轨迹关联,采用匈牙利法寻找使所有匹配距离之和最小的匹配关联,如果命中目标,则关联成功;否则关联失败,终止该目标的跟踪。
2.根据权利要求1所述的基于深度学习的高速跨摄像头单目标跟踪方法,其特征在于:步骤一中,采用FasterRCNN模型作为行人检测算法,保留1:2的检测框,在KITTI数据集上重新训练,最终在NLPR_MCT上取得较好行人检测结果,并保存每帧的检测结果和检测得分作为算法输入。
3.根据权利要求1所述的基于深度学习的高速跨摄像头单目标跟踪方法,其特征在于:步骤五中,采用下述函数指定搜索范围;
F=X+vδ
式中,X向量为行人边界框的运动状态,v为各状态变化率,δ为当前时间与轨迹时间消失时的帧差;X={x,y,w,h},x,y为轨迹消失时的目标中心位置,w和h为宽和高;
其中,F={x',y',w',h'},x',y'为预测位置中心,w'和h'为搜索区域的宽和高;
由一条轨迹有多个不同位置的行人的轨迹图片,设定搜索范围内余弦距离最小的轨迹图片作为匹配轨迹,用公式表示为:
dist(P,Q)=minp,q cos(p,q)
式中,p和q分别为提取的目标轨迹和候选轨迹的图片特征,P、Q分别为提取的目标轨迹和候选轨迹的图片特征集合,根据获得的匹配轨迹进行关联,获得关联后的轨迹集合。
4.根据权利要求1所述的基于深度学习的高速跨摄像头单目标跟踪方法,其特征在于:步骤六中最终匹配建立时空约束条件的具体过程为:
设定拓扑矩阵M作为跨摄像机匹配的方向限制;拓扑矩阵M为4*n阶单位布尔矩阵,n为相机数;采用数字1~4表示场景平面的四个方向;M4n+i,4m+j=1表示第n个相机下i方向的轨迹与第m个相机下j方向的轨迹是关联的关系,结果为0,则不可关联,轨迹方向以轨迹起点到终点的矢量与基准坐标系的最小夹角决定;
最终匹配建立时空约束条件为:
M(si,sj)=1
式中,ns、ne为轨迹消失和重现的时间间隔范围约束参数;为轨迹消失和重现时间;si和sj分别为拓扑矩阵M中i方向和j方向的轨迹。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳大学;深圳市坪山区大数据资源管理中心,未经深圳大学;深圳市坪山区大数据资源管理中心许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910811068.0/1.html,转载请声明来源钻瓜专利网。