[发明专利]一种用于脱机手写文本识别的数据增强方法有效
申请号: | 202210183766.2 | 申请日: | 2022-02-28 |
公开(公告)号: | CN114241495B | 公开(公告)日: | 2022-05-03 |
发明(设计)人: | 侯庆志;韩廷祥;张云峰;柯文俊;魏建国 | 申请(专利权)人: | 天津大学 |
主分类号: | G06V30/40 | 分类号: | G06V30/40;G06V30/10;G06V10/774;G06K9/62;G06T3/40;G06T11/60 |
代理公司: | 天津市北洋有限责任专利代理事务所 12201 | 代理人: | 程毓英 |
地址: | 300072*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 用于 脱机 手写 文本 识别 数据 增强 方法 | ||
本发明涉及一种用于脱机手写文本识别的数据增强方法,包括以下步骤:选定脱机中文手写数据库,此数据库分为手写单字符图像数据库和手写文本行图像数据库;对于手写单字符图像数据库,解析所有数据文件,将相同字符的手写单字符图像存储到同一文件夹下,手写单字符图像以书写作者的索引号命名,并将手写单字符图像数据库里所涉及的各个字符及每个字符所对应的编码存储为用于对手写单字符图像进行检索的字典,构建手写单字符图像数据集;基于语料库构建文本行文件;生成对应的手写文本行图像,每一行文本对应生成一张手写文本行图像;获得添加噪声背景的手写文本行图像;实现手写文本行图像数据库的数据增强。
技术领域
本发明涉及图像处理技术领域,尤其涉及一种用于脱机手写文本识别的数据增强方法。
背景技术
随着计算机的计算与存储性能的快速提升,近年来,以深度学习和大数据为基础的人工智能技术在人脸识别、语音识别、目标检测、自然语言处理等众多领域得到了快速的发展与应用。深度神经网络在许多任务中表现良好,但这些网络通常需要大量数据才能避免过度拟合。遗憾的是,许多场景无法获得大量数据,这些数据往往需要人工进行标注和整理,十分耗时耗力。数据增强(Data Augmentation)是一种使用有限的数据产生更多的等价数据来扩展训练数据集的技术,它是克服训练数据不足的有效手段。
手写文本识别任务,根据使用场景可分为联机识别和脱机识别。其中,联机识别使用书写的笔划坐标特征,应用于手机等电子设备的联机手写输入识别,其特点是笔划清晰、背景干净;脱机识别是对图像中的文字区域进行检测后识别,应用场景更为复杂和广泛,难度也更大。对于脱机的手写文本识别任务,模型通常需要依赖大量手写文本行图像进行训练。目前,公开的手写数据集通常包括手写单字符数据和手写文本行数据,但手写文本行图像的样本数据量十分有限。由于缺乏训练数据,脱机手写文本识别的效果很难提升。
发明内容
本发明提供一种用于脱机手写文本识别的数据增强方法,基于手写单字符图像数据库和语料库,通过一系列数据增强方法扩充手写文本行图像数据集,用于训练手写文本识别模型,从而提高模型识别的准确率和适应性。本发明提出的技术方案如下:
一种用于脱机手写文本识别的数据增强方法,包括以下步骤:
步骤S1:选定脱机中文手写数据库,此数据库分为手写单字符图像数据库和手写文本行图像数据库,所述手写单字符图像数据库为每个书写作者建立一个数据文件,该数据文件包含由该书写作者书写的若干手写单字符图像;
步骤S2:对于手写单字符图像数据库,解析所有数据文件,将相同字符的手写单字符图像存储到同一文件夹下,手写单字符图像以书写作者的索引号命名,并将手写单字符图像数据库里所涉及的各个字符及每个字符所对应的编码存储为用于对手写单字符图像进行检索的字典,构建手写单字符图像数据集;
步骤S3:基于语料库构建文本行文件;
步骤S4:由所述步骤S3得到的文本行文件生成对应的手写文本行图像,每一行文本对应生成一张手写文本行图像,方法为:
步骤S41:选取文本行文件的文本行对应的手写单字符图像:对文本行文件的每行文本按字符进行遍历,利用所述步骤S2所获得的字典,从手写单字符图像数据集中依次查找和选取字符对应的手写单字符图像,为同一文本行选取的手写单字符图像来自同一书写作者;
步骤S42:对文本行文件每个文本行生成固定大小的背景图,背景图的宽度根据最长文本长度设定;为文本行文件的文本行选定缩放值,对选取的手写单字符图像进行缩放;
步骤S43:将所述选取的手写单字符图像依次水平粘贴在背景图中,生成一张手写文本行图像;
步骤S5:对所述步骤S4生成的手写文本行图像添加噪声背景,获得添加噪声背景的手写文本行图像;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210183766.2/2.html,转载请声明来源钻瓜专利网。