[发明专利]基于多特征融合级联深度模型的车辆违停检测方法有效
申请号: | 201810599535.3 | 申请日: | 2018-06-12 |
公开(公告)号: | CN109033950B | 公开(公告)日: | 2020-07-17 |
发明(设计)人: | 陈晋音;俞露;王诗铭;龚鑫 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00 |
代理公司: | 杭州天勤知识产权代理有限公司 33224 | 代理人: | 曹兆霞 |
地址: | 310014 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 特征 融合 级联 深度 模型 车辆 检测 方法 | ||
本发明公开了一种基于多特征融合级联深度模型的车辆违停检测方法,包括:首先使用交通路口的监控摄像头采集违停车辆照片,对图像处理得到训练集;然后通过VGG神经网络得到卷积层的网络参数,输入多次筛选的级联RPN网络高精度提取模型推荐框(可能存在物体的区域);接下来,将检测结果输出到联合神经网络中进行训练得到识别结果;最终,根据预设的电子围栏判断车辆是否在违停区域内来判断是否违停。该方法克服了已有的车辆检测方法适应性不足,实时性不佳,漏判误判率较高且无法针对车辆局部信息进行识别的缺点。
技术领域
本发明属于深度学习图像处理技术领域,具体涉及一种基于多特征融合级联深度模型的车辆违停检测方法及系统。
背景技术
随着社会经济的发展和人民生活水平的提高,机动车保有量保持快速增长。各国车辆数目急剧增加,当下车辆管理问题已经成为全球性的城市通病,而其中最主要的症状就是违规停车。因此研究基于监控视频的车辆违规停车的检测方法具有十分重要的现实意义,而其中,最关键的核心技术在于,如何对车辆进行精准检测。并且面对摄像头等视频采集设备得到的车辆情况是非常复杂的,例如路边的违停车辆经常会被其他车辆遮挡,摄像头无法顺利采集到完整违停车辆等。
目前车辆检测的方法主要有帧间差算法、边缘检测算法、背景差分算法、基于特征提取方法包括SIFT,LBP,HOG等算法;基于深度学习的物体检测算法等。其中以背景差分法为代表的简单图像处理方法的准确度较低并且容易受到恶劣天气、光照条件、镜头抖动等的外界影响;而以SIFT(尺度不变特征变换匹配算法)为代表的特征提取算法虽然不易受仿射变换和光照的影响,但其算法复杂耗时较大,因此实时性不佳,同时也存在着对于光滑边缘无法准确提取特征点的情况;基于深度学习的算法在车辆识别的准确度上有很大的提高,但是在实际场景中存在车辆被部分遮挡的情况或者车辆停留在盲区无法被识别的情况,容易造成一定的误判。
针对于以上对目前技术的分析,目前普遍存在并需要解决的问题有:(1)对场景的应用条件要具有适应性。可以在恶劣天气、不同光照强度等各种应用场景下稳定运行;(2)算法需要满足实时性,且不能具有过复杂的网络结构,在较短的时间内能够检测出车辆;(3)减少违停车辆漏判率,提高车辆在被遮挡,摄像头只能采集局部车辆的情况下的网络对违停车辆的识别精度。
公布号为CN106874863A的专利申请公开了一种基于深度卷积神经网络的车辆违停逆行检测方法,用移动终端检测点作为道路摄像头,移动终端检测点通过摄像头获取图像信息,将深度学习引入路面事件识别并加以改进,以显著提高道路事件识别准确率。具体地,利用卷积神经网络对获取的图像进行分析,将路面ROI区域划分为多个网络,构建路面—非路面识别模型,通过非路面网格反向识别高速公路非法停车、车辆逆向行驶等目标。该方法识别范围有限,不能满足需求。
发明内容
为了克服已有的车辆检测方法适应性不足,实时性不佳,漏判误判率较高且无法针对车辆局部信息进行识别的缺点。本发明提供一种鲁棒性较好,且能够准确识别不完整车辆的整体和局部特征相结合的基于多特征融合的级联深度的车辆违停检测方法及系统。
本发明的技术方案为:
一种基于多特征融合级联深度模型的车辆违停检测方法,包括以下步骤:
(1)从监控视频中截取视频帧,对获得的帧图像打上车辆标签形成训练样本,构建训练集;
(2)构建网络模型,该模型包括VGG-16网络、改进的RPN网络以及联合神经网络,其中,VGG-16网络用于提取输入图像的初始特征,改进的RPN网络的输入连接于VGG-16的输出,通过设定的多个层级检测阈值对获得前景识别边框进行层级筛选,获得最终前景识别边框和前景特征图,联合神经网络的输入与联合神经网络的输出相连,用于提取前景特征图的局部特征和全局特征,并分别计算局部特征和全局特征的损失值,将两个损失值之和作为总的损失值;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810599535.3/2.html,转载请声明来源钻瓜专利网。