[发明专利]基于深度学习VGG16框架的车牌检测方法及系统、存储介质有效
申请号: | 201910577106.0 | 申请日: | 2019-06-28 |
公开(公告)号: | CN110399800B | 公开(公告)日: | 2021-05-07 |
发明(设计)人: | 王建华 | 申请(专利权)人: | 智慧眼科技股份有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06N3/08 |
代理公司: | 长沙智嵘专利代理事务所(普通合伙) 43211 | 代理人: | 刘宏 |
地址: | 410205 湖南省长沙市岳麓区长*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 vgg16 框架 车牌 检测 方法 系统 存储 介质 | ||
本发明公开了一种基于深度学习VGG16框架的车牌检测方法、系统及计算机可读取的存储介质。本发明的基于深度学习VGG16框架的车牌检测方法、系统及计算机可读取的存储介质,首先准备输入图片数据集,并且基于深度学习VGG16框架来搭建车牌定位网络模型,再基于准备的图片数据集制作训练数据,并利用制作的训练数据训练搭建的网络模型,然后利用训练好的网络模型进行车牌检测和模型评估,在提高车牌定位准确率的同时还提高了车牌检测速度,可以很好地满足车牌检测的实时化需求。
技术领域
本发明涉及车牌检测技术领域,特别地,涉及一种基于深度学习VGG16框架的车牌检测方法及系统、计算机可读取的存储介质。
背景技术
车牌识别技术是当代智能交通系统中的一种重要技术,它至少包含车牌定位和车牌字符识别两个模块。其中,车牌定位是车牌自动识别技术中的一个关键问题,目前许多学者都在研究发展多种车牌定位方法。从根本上讲,目前车牌定位的方法主要有两种,一种是基于传统图像处理的方法,一种是基于机器学习的方法。传统的方法一般利用车牌区域的边缘、纹理、颜色等特征来对车牌进行定位;基于机器学习如支持向量机SVM等方法则是利用网络提取车牌区域的特征来进行车牌定位。
但是,基于边缘、纹理的定位方法,主要利用了车牌区域中的边缘纹理较密集的特征和图像二值化算法,通过区域生长算法或连通域算法来定位车牌,在车牌对比度低、部分边缘损失等复杂环境下,因二值化算法鲁棒性差等使得车牌区域特征被人为消失,造成该种情况下车牌的定位率不高,同时倾斜车牌定位不全现象的概率较高。而基于颜色的车牌定位方法,主要运用了颜色模型和纹理分析来进行车牌定位,其利用了HSI、YIQ或者HSV等颜色模型来定位车牌,但对处于对比度很低环境下的车牌以及污染、颜色严重损失的车牌定位率并不高。而基于支持向量机SVM的定位方法,需要数十万的训练样本来训练数据文件,且其训练样本需尽可能的多样化,且运算量非常大,对1080P图片全图车牌检测耗时有时竟达到上百毫秒级,其实时性不好造成了实用性不强。
因此,目前的车牌识别技术中的车牌定位方法均无法同时满足高定位率和实时化的需求。
发明内容
本发明提供了一种基于深度学习VGG16框架的车牌检测方法及系统、计算机可读取的存储介质,以解决现有的车牌定位方法无法同时满足高定位率和实时化的需求的技术问题。
根据本发明的一个方面,提供一种基于深度学习VGG16框架的车牌检测方法,包括以下步骤:
步骤S1:准备图片数据集;
步骤S2:基于VGG16框架构建车牌定位网络模型,
步骤S3:基于准备的图片数据集制作训练数据,并利用制作的训练数据训练搭建的网络模型;
步骤S4:利用训练好的网络模型进行车牌检测和模型评估。
进一步地,所述步骤S2具体为:
在VGG16网络结构的基础上保留前13个卷积层、池化层pool1和池化层pool2不变,删除池化层pool3、pool4、pool5和全连接层fc8;
将全连接层fc6和fc7修改为卷积层且层的名称不变;
在卷积层conv3-3后方新增L2 Normalization层,并在L2 Normalization层后新增分类层和目标坐标位置回归层,在卷积层fc7后新增分类层和坐标位置回归层,同时在卷积层fc7后依次添加卷积层conv8和conv9,然后在卷积层conv9后方新增分类层和目标坐标位置回归层,在卷积层conv9后依次添加卷积层conv10和conv11,在卷积层conv11的后新增分类层和目标坐标位置回归层;
添加一个含有非极大值抑制阈值和置信度阈值的检测层NMS,该层的输入为各个分类层和目标坐标位置回归层,输出为目标的类别、得分以及对应的目标坐标位置。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于智慧眼科技股份有限公司,未经智慧眼科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910577106.0/2.html,转载请声明来源钻瓜专利网。