[发明专利]一种基于文本行识别的车牌识别方法在审
申请号: | 202010735739.2 | 申请日: | 2020-07-28 |
公开(公告)号: | CN111914838A | 公开(公告)日: | 2020-11-10 |
发明(设计)人: | 黄德双;秦魏 | 申请(专利权)人: | 同济大学 |
主分类号: | G06K9/32 | 分类号: | G06K9/32;G06K9/34;G06N3/04 |
代理公司: | 上海科盛知识产权代理有限公司 31225 | 代理人: | 杨宏泰 |
地址: | 200092 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 文本 识别 车牌 方法 | ||
本发明涉及一种基于文本行识别的车牌识别方法,包括以下步骤:S1:获取原始图像;S2:车牌检测步骤:检测原始图像中的车牌部分,得到车牌图像;S3:文本行检测步骤:通过文本检测网络检测车牌上的文本行,得到车牌文本行图像;S4:文本行识别步骤:将车牌文本行图像输入车牌文本行识别网络,最终输出车牌文本行的字符序列,完成车牌识别,与现有技术相比,本发明具有高鲁棒性和高性能等优点。
技术领域
本发明涉及基于图像处理与模式识别的车牌识别技术,尤其是涉及一种基于文本行识别的车牌识别方法。
背景技术
车牌检测和识别是典型的计算机视觉领域的任务,在智能交通系统中有广泛的应用前景。随着现代交通系统的发展,车流量飞速上涨,车牌识别系统可以辅助交通管理、公共安全等。
过去十几年来,车牌识别问题得到了业界的广泛关注。考虑到影响图像质量的多种因素,例如拍摄环境(光线、机位、焦点模糊等)、图片质量(分辨率等)和复杂的拍摄背景,在任意场景下的车牌识别任务依然面临着困难。
现有的一些车牌识别系统的识别方法主要包括以下步骤:车牌检测、字符分割和场景文字识别。车牌识别可以总结为两部分:从自然图像中检测到车牌的位置,并从检测到的车牌上识别出文本信息。在已有的一些车牌识别系统工作流中,有的注重于实现从输入的自然图像到输出的文本内容的完整工作流,有的工作流为了提高识别准确性,在车牌检测前加入了车辆检测。
已有的车牌识别方法可以分为两种:基于深度学习的方法和基于非深度学习的方法。在深度学习发展起来之前,一般使用基于颜色信息、文本信息或者车牌边缘信息来对车牌进行粗略识别。使用的方法一般是有限玻尔兹曼机或者支持向量机。
近年来,随着深度学习的发展,基于字符分割的车牌识别方法比较流行。基于字符分割的方法需要预分割的训练数据,这样难以为训练数据打标签,且其利用字体文件自动生成图像,车牌识别的效果和鲁棒性较差。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种提高识别效果和鲁棒性的基于文本行识别的车牌识别方法。
本发明的目的可以通过以下技术方案来实现:
一种基于文本行识别的车牌识别方法,包括以下步骤:
S1:获取原始图像;
S2:车牌检测步骤:检测原始图像中的车牌部分,得到车牌图像;
S3:文本行检测步骤:通过CPTN网络检测车牌上的文本行,得到车牌文本行图像;
S4:文本行识别步骤:将车牌文本行图像输入车牌文本行识别网络,最终输出车牌文本行的字符序列,完成车牌识别。
进一步地,所述的步骤S2中,通过YOLOv3网络检测原始图像中的车牌部分。
更进一步地,所述的YOLOv3网络将原始图像的特征图维度经过五次降低,分别得到第一特征图、第二特征图、第三特征图、第四特征图和第五特征图,然后分别对第三特征图、第四特征图和第五特征图经过上采样后拼接,最后输出特征张量,完成对车牌的检测。
进一步地,所述的步骤S3具体包括:
S31:利用回归模型预测得到CPTN网络的竖直检测框;
S32:对预测得到的竖直检测框进行边界优化,边界优化可以防止在CPTN网络中可能会出现的水平方向定位不准确的情况;
S33:将竖直方向上重叠程度达到设定阈值的竖直检测框合并为一个检测框,得到最终的竖直检测框,竖直检测框的合并可以防止CTPN网络将同一行文本分割成两部分;
S34:CPTN网络通过竖直检测框进行文本行的检测,得到车牌文本行图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于同济大学,未经同济大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010735739.2/2.html,转载请声明来源钻瓜专利网。