[发明专利]一种基于视频跟踪的多目标车辆轨迹识别方法有效
申请号: | 201911125301.6 | 申请日: | 2019-11-18 |
公开(公告)号: | CN110991272B | 公开(公告)日: | 2023-07-18 |
发明(设计)人: | 宫俊;刘聪;王陈浩;郭栋;任航 | 申请(专利权)人: | 东北大学 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V20/54;G06T7/246;G06V10/82 |
代理公司: | 沈阳东大知识产权代理有限公司 21109 | 代理人: | 李在川 |
地址: | 110819 辽宁*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 视频 跟踪 多目标 车辆 轨迹 识别 方法 | ||
1.一种基于视频跟踪的多目标车辆轨迹识别方法,其特征在于:包括如下步骤:
步骤1:采集监控视频图像,设置相关参数,所述相关参数包括改进的YOLO v3算法参数初始化、置信度阈值设定;
步骤2:根据视频图像采用YOLO v3算法获取图像中要跟踪的所有车辆目标,将检测到的N个车辆作为跟踪目标,得到N个车辆的第Q帧目标框集合SQ,并以目标车辆的中心点作为轨迹记录点,建立N个车辆的轨迹集L={L1,L2,L3,…,LN},其中LN代表目标车辆N的轨迹集合;
步骤3:启动跟踪;根据目标框集合SQ和Q+1帧的视频图像采用改进的YOLO v3算法进行车辆目标检测得到N个车辆Q+1帧的目标框集合SQ+1,重复本步骤,直至将采集的监控视频图像全部检测完毕,输出最终的轨迹集L′;
所述步骤3的具体步骤如下:
步骤3.1:基于第Q帧图像中N个车辆的目标框集合SQ,利用KCF跟踪方法计算在Q+1帧中原Q帧中N个车辆的响应值,并将Q+1帧中每个车辆对应的响应值大的前五名保存到样本序列CQ+1={c1,c2,…,ca,…,cN}中,其中代表第a辆车的响应值集合,并将各车辆的最大响应值对应的图像区域添加到预测区域集合KQ+1;
步骤3.2:置信度判断:分别计算当前帧中预测区域集合KQ+1与前一帧中目标框集合SQ各车辆预测框的IOU值,并将其作为置信度,得出置信度集合M=[m1,m2…mN],计算公式为ma的值范围为[0,1],其中,area表示各预测框的面积,sa代表第a辆车在Q帧时的目标框,ka代表第a辆车在Q+1帧时的预测区域,对置信度集合M中的元素分别判断其是否大于置信度阈值,若是,则认为是有效跟踪,则将预测区域储存至预测框集合K′Q+1中,执行步骤3.4;若否,则认为是无效跟踪,则获取所有无效跟踪的目标车辆以及目标车辆相对应的响应值集合,分别将响应值集合内的响应值依次作为当前帧的最大响应值,即预测区域,再进行置信度判断,若为有效跟踪,则将该预测区域储存至预测框集合K′Q+1中,执行步骤3.3;若目标车辆均为无效检测则认为车辆消失在监控视频中,则执行步骤3.4;
步骤3.3:判断预测框集合K′Q+1内的预测框数量是否为N个,若否,则删除预测框集合K′Q+1,执行步骤3.4,若是,则执行步骤3.5;
步骤3.4:根据Q+1帧的视频图像采用YOLO v3算法获取图像中要跟踪的N个目标车辆,得到N个车辆的第Q+1帧目标框集合SQ+1,执行步骤3.6;
步骤3.5:将预测框集合K′Q+1作为搜索区域,采用YOLO v3算法进行目标车辆检测,得到第Q+1帧的目标框集合SQ+1;
步骤3.6:轨迹获取与记录:计算得到的当前帧中所有车辆的中心点,并将各车辆的最新位置更新到轨迹集L={L1,L2,L3,…,LN}中;
步骤3.7:令Q=Q+1,执行步骤3.1;直至将采集的监控视频图像全部检测完毕,输出最终的轨迹集L′;
所述改进的YOLO v3算法为将输入图像划分为网格,利用KCF跟踪算法对当前帧进行处理,预测下一帧中车辆的位置,在下一帧中对预测位置中的网格进行检测,不再对所有网格进行检测;设定设计车辆检测专属的anchor的窗口尺寸和YOLO v3算法损失函数,然后采用YOLO v3算法获取目标框集合,得到目标车辆的轨迹集。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东北大学,未经东北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911125301.6/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种暗管系统淋洗效果的计算方法
- 下一篇:控制输出电压的散热装置