[发明专利]一种自然场景下的水平文本检测方法在审
申请号: | 202111663029.4 | 申请日: | 2021-12-30 |
公开(公告)号: | CN114332868A | 公开(公告)日: | 2022-04-12 |
发明(设计)人: | 阎波;高一健;李达;唐亮 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06V30/148 | 分类号: | G06V30/148;G06N3/04;G06V10/762;G06K9/62;G06V10/82;G06V10/80;G06V30/19 |
代理公司: | 北京正华智诚专利代理事务所(普通合伙) 11870 | 代理人: | 代维凡 |
地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 自然 场景 水平 文本 检测 方法 | ||
本发明公开了一种自然场景下的水平文本检测方法,涉及计算机视觉目标检测领域,包括:选择包含水平文本的自然场景图片构建数据集;建立由特征提取子模型和文本检测子模型构成的水平文本检测模型,并根据数据集,优化文本检测子模型;采用迁移学习,通过损失函数,训练水平文本检测模型;基于嵌入式操作系统的软件开发工具包,将训练完成的水平文本检测模型部署在手持终端设备上;检测自然场景图片的水平文本。本发明拥有极快的检测速度,相对于现有技术,针对性和适用性高,检测精度高,且本发明提供的方法步骤可通过程序部署在移动端设备上。
技术领域
本发明涉及计算机视觉目标检测领域,具体涉及一种自然场景下的水平文本检测方法。
背景技术
近年来,自然场景文本检测与识别技术成为智能信息处理的一个关键环节,其在日常生活的应用无处不在。机器人导航、自动驾驶、自动车牌识别、快递自助取件等技术都离不开文本检测与文本识别。然而,自然场景中文本检测任务一般较为复杂,一个场景中可能存在多种不同样式的文本,例如大小、字体、方向和颜色互不相同等。同时,文本背景纹理也多种多样,例如树木、人物、建筑物等,都会影响文本检测效果。
在场景文本检测领域,传统的光学字符识别(Optical Character Recognition,OCR)技术只能处理一些简单背景下的字符识别任务,且对文本背景、文本格式和拍摄角度等都有较高的要求。近年来,随着计算机算力的提高和深度学习技术的不断发展,出现了很多更精准和鲁棒的基于深度学习的目标检测技术。深度学习中的卷积神经网络对于提取图像中的特征具有优秀的效果,可以提取出图像的深层次特征信息,因此多被用于图像检测与识别领域。对于目标检测技术,当前主流的是基于区域建议和基于图像分割的技术。
YOLO是一种轻量级的目标检测框架,其将目标检测作为端到端的回归问题来求解,一般包含特征提取阶段、特征融合阶段和锚框回归阶段。后来又发展出了YOLOv2、YOLOv3、YOLOv3-tiny等版本,可以准确地识别出场景中的水平或近似水平的文本目标。它们在特征提取阶段采用了Darknet网络结构,并在检测阶段提出对提取到的特征图的每个点生成三个大小不同,中心点相同的先验锚框,然后对锚框的坐标进行回归,得到最终的目标检测框。
然而,类似YOLO的技术大多是通用的目标检测框架,在特征提取阶段的卷积核形状一般为n*n,适用于检测形状多样的目标,而对于细长型的文本行来说效果欠佳,针对性不高,易造成检测召回率低的问题。同时,它们生成的先验锚框通常为了检测不同形状的物体而形状差别较大,在回归生成文本框时精度一般较低,且在训练网络时对资源和时间的消耗更大。并且这些技术的复杂度通常很高,对于运行设备的资源要求和占用较多,不利于技术落地,也不适合在移动端设备上运行。
发明内容
针对现有技术中的上述不足,本发明提供的一种自然场景下的水平文本检测方法解决了现有目标检测方法对文本检测的针对性和适用性不高,检测精度和召回率低;以及现有目标检测方法的程序复杂度高,硬件资源消耗大,检测时间长,不利于的部署在移动端设备上的问题。
为了达到上述发明目的,本发明采用的技术方案为:
一种自然场景下的水平文本检测方法,包括以下步骤:
S1、选择包含水平文本的自然场景图片构建数据集;
S2、建立由特征提取子模型和文本检测子模型构成的水平文本检测模型,并根据数据集,优化文本检测子模型;
S3、根据数据集,采用迁移学习,通过损失函数,训练水平文本检测模型;
S4、基于嵌入式操作系统的软件开发工具包,将训练完成的水平文本检测模型部署在手持终端设备上;
S5、通过步骤S4的手持终端设备,检测自然场景图片的水平文本。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111663029.4/2.html,转载请声明来源钻瓜专利网。