[发明专利]一种视频流中的车辆检测方法有效
申请号: | 201910157557.9 | 申请日: | 2019-03-01 |
公开(公告)号: | CN109829445B | 公开(公告)日: | 2021-11-30 |
发明(设计)人: | 郭烈;何丹妮;郑仁成;姚宝珍;李琳辉;孙大川 | 申请(专利权)人: | 大连理工大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62;G06N3/04 |
代理公司: | 大连东方专利代理有限责任公司 21212 | 代理人: | 李洪福 |
地址: | 116024 辽*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种视频流中的车辆检测方法,包括以下步骤:获取视频帧,采用训练完成的卷积神经网络对获得的视频帧进行识别,并根据结果判断视频中是否有车辆,以及车辆所在的具体位置;由车辆检测得到车辆在图像中的位置,用卡尔曼滤波器预测其在下一帧的数值,作为车辆跟踪结果;将车辆检测的结果和车辆跟踪的结果进行关联,依据关联结果修正滤波器参数,更新滤波器群信息。本发明设计一种网络层数少、结构小的卷积神经网络用于车辆检测任务,检测速度快、精度高。本发明使用卡尔曼跟踪算法进行检测框的位置预测,跟踪速度快且稳定。本发明利用数据关联策略将检测算法与跟踪算法结合,体现帧与帧之间车辆的关联性,并且能降低车辆对象的漏检率。 | ||
搜索关键词: | 一种 视频 中的 车辆 检测 方法 | ||
【主权项】:
1.一种视频流中的车辆检测方法,其特征在于:包括以下步骤:A、车辆检测获取视频帧,采用训练完成的卷积神经网络对获得的视频帧进行识别,并根据结果判断视频中是否有车辆,以及车辆所在的具体位置;具体包括以下步骤:A1、获取待检测车辆样本数据集;收集包含车辆的若干张图像,图像包含各种场景下,待检测车辆的可能的状态;对于长宽不等的图像,先将图像用0像素填充到长宽相等,再放缩到416×416像素大小;在labelImage软件中用矩形框标注每张图像中的车辆信息,保存标注信息文档;A2、搭建卷积神经网络用作特征提取;采用的特征提取网络结构依次为:卷积层1、最大池化层1、卷积层2、最大池化层2、卷积层3、最大池化层3、卷积层4、最大池化层4、卷积层5、最大池化层5、卷积层6、最大池化层6、卷积层7、卷积层8、卷积层9、卷积层10;A3、按照步骤A2所描述的网络结构,特征提取网络最终输出向量为13×13×255,因此连接一个yolo层,使其输出向量为13×13×5×(1+5),最终完整的网络结构及每层的参数如下:输入图片大小为416*416*3,3代表图片为彩色图片有三个通道,经过卷积层1,使用16个大小为3*3的卷积核,步长为1,经过这一层数据的输出大小变为416*416*16;通过核大小为2*2,步长为2的最大池化层1,得到208*208*26的数据;卷积层2中有32个大小为3*3的卷积核,卷积步长为1,得到数据大小为208*208*32;再通过核大小为2*2,步长为2的最大池化层2,得到104*104*32的数据;卷积层3中有64个大小为3*3的卷积核,卷积步长为1,得到数据大小为104*104*64;再通过核大小为2*2,步长为2的最大池化层3,得到52*52*64的数据;卷积层4中有128个大小为3*3的卷积核,卷积步长为1,得到数据大小为52*52*128;再通过核大小为2*2,步长为2的最大池化层4,得到26*26*128的数据;卷积层5中有256个大小为3*3的卷积核,卷积步长为1,得到数据大小为26*26*256;再通过核大小为2*2,步长为2的最大池化层5,得到13*13*256的数据;卷积层6中有512个大小为3*3的卷积核,卷积步长为1,得到数据大小为13*13*512;再通过核大小为2*2,步长为1的最大池化层6,得到13*13*512的数据;再通过1024个核大小为3*3,步长为1的卷积层7,得到数据大小为13*13*1024;再通过256个核大小为1*1,步长为1的卷积层8,得到数据大小为13*13*256;再通过512个核大小为3*3,步长为1的卷积层9,得到数据大小为13*13*512;最后通过255个核大小为1*1,步长为1的卷积层10,得到数据大小为13*13*255的特征数据;在后面连接一个yolo层即构成目标检测神经网络,其中yolo层的参数为:Class=1;anchors=10,14;23,27;37,58;81,82;135,169;344,319;ignore_thresh=0.7;A4、将步骤A1中获取的样本数据分成训练集和测试集,训练集和测试集数据的比例是7:3;用训练集来训练之前搭建的卷积神经网络,测试集实时评估训练结果;A5、关注训练误差,当训练误差下降到2以下,且长时间保持这个水平时停止训练,并保存此时的网络参数权重;A6、视频流图像帧中的车辆检测;对于获得的视频帧,先用0像素填充到长宽相等,再放缩到416×416像素大小;用步骤A2搭建好的神经网络并加载训练好的权重进行车辆检测,得到车辆的类别及位置信息,再缩放成原来图像大小,得到对应的车辆信息参数;B、车辆跟踪由车辆检测得到车辆在图像中的位置,用cx、cy、w和h这四个参数来表示,这四个参数分别代表检测矩形框的中心点x坐标值、中心点y坐标值、矩形框的宽和矩形框的高;对于每个矩形框的四个参数,用卡尔曼滤波器预测其在下一帧的数值,作为车辆跟踪结果;将卡尔曼滤波器的状态方程设计为:X=[cx,cy,w,h,cx',cy',w',h',cx”,w”,h”]其中,cx'、cy'、w'、h'、cx”、w”、h”分别代表cx的变化速度、cy的变化速度、w的变化速度、h的变化速度、cx的变化加速度、w的变化加速度、h的变化加速度,将这些参数都初始化为0,用该车辆对应的匹配数据更新这些参数,最终的跟踪结果为:
C、数据关联将车辆检测的结果和车辆跟踪的结果进行关联,依据关联结果修正滤波器参数,更新滤波器群信息;具体包括以下步骤:C1、车辆检测结果和车辆跟踪结果的处理;将这两部分的车辆框结果数据格式转换成xmin、ymin、xmax和ymax,这四个参数分别代表车辆框的左上角x坐标值、y坐标值和车辆框右下角x坐标值、y坐标值;C2、计算每个检测结果与每个跟踪结果的IOU值;计算公式为:
得到IOU匹配表;其中O1、O2、……、On表示检测结果,n代表检测结果的总数;P1、P2、……、Pm表示预测结果,m代表预测结果的总数;C3、用匈牙利算法根据IOU匹配表算出最关联匹配对;C4、将IOU值小于IOU阈值的数据对去除,得到三部分数据:匹配成功的数据对、未匹配成功的检测结果、未匹配成功的跟踪结果;C5、对于匹配成功的数据对,用检测的结果数据校正这些滤波器的参数,并继续用这些滤波器进行下一阶段的跟踪;对于未匹配成功的检测结果,将这些数据判定为出现了新车辆,并为其分配滤波器进行跟踪;对于未匹配成功的跟踪结果,将这部分数据均考虑为检测算法失效发生漏检,保留滤波器继续跟踪。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于大连理工大学,未经大连理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910157557.9/,转载请声明来源钻瓜专利网。