[发明专利]一种基于深度残差网络的文字透底现象去除方法在审
申请号: | 201910378389.6 | 申请日: | 2019-05-08 |
公开(公告)号: | CN110119704A | 公开(公告)日: | 2019-08-13 |
发明(设计)人: | 韩波;孙毓钊 | 申请(专利权)人: | 武汉大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/36;G06K9/42;G06K9/62 |
代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 罗飞 |
地址: | 430072 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 去除 残差 训练数据 噪声 网络数据获取 辅助数据集 统计学理论 辅助数据 模拟生成 生成算法 数据可用 网络设计 训练过程 噪声生成 噪声数据 普适性 数据集 构建 算法 网络 图像 | ||
1.一种基于深度残差网络的文字透底现象去除方法,其特征在于,包括:
步骤S1:从网络数据中获取文字透底数据和辅助数据集;
步骤S2:对辅助数据集进行预处理后,按照预设划分比例划分为训练数据集和验证数据集,将文字透底数据作为测试数据集;
步骤S3:从训练数据集中选取出数据,并为选取出的数据添加一对分布相同的噪声,构成带有噪声的训练数据;
步骤S4:基于统计学理论和深度残差网络,设计神经网络结构和损失函数,构建文字透底现象去除模型;
步骤S5:设置模型参数,利用带有噪声的训练数据对文字透底现象去除模型进行训练,获得训练后的文字透底现象去除模型;
步骤S6:利用步骤S5中训练后的文字透底现象去除模型对待处理的图像进行文字透底现象去除。
2.如权利要求1所述的方法,其特征在于,步骤S2对辅助数据集进行预处理,具体包括:
对辅助数据集进行清洗,抽取出预设数量的清晰数据,并对于尺寸超过阈值的图片,按照预设比例重新调整大小。
3.如权利要求1所述的方法,其特征在于,步骤S3的具体实现过程包括以下子步骤:
步骤S3.1:通过预设程序生成一对噪声数据;
步骤S3.2:将生成的噪声数据与选取出的数据进行相加,构成输入输出对,将其作为带有噪声的训练数据。
4.如权利要求1所述的方法,其特征在于,步骤S4的具体实现过程包括以下子步骤:
步骤S4.1:基于统计学理论,对于一组数据(x1,x2,…,xn),损失函数为均方误差时,将其最小最优解作为组数据的算术平均值y=Ex{x},
并最小化经验损失:
argminθEx{Ey|xL(fθ(x),y)}
其中,x为模型的输入,y为模型的目标输出结果,fθ(x)表示模型的实际输出结果,L(fθ(x),y)表示模型的经验损失,由于y与x不独立,E表示期望值,Ex{Ey|xL(fθ(x),y)}表示经验损失的期望值,argminθ表示最小化某个目标函数时,θ的取值,整个公式就是最小化模型经验损失时θ的取值;
步骤S4.2:基于深度残差神经网络,建立文字透底残差网络模型Show-ThroughResNet——简写为STResNet,通过卷积层提取图像特征,同时网络结构参考残差网络ResNet的跳跃连接设计,在网络中添加多个残差块结构,建立深层的神经网络模型;
步骤S4.3:设计多种损失函数来优化网络参数,得到不同效果的网络模型,损失函数包括但不限于均方误差MSE损失函数:
其中,ypred表示模型的实际输出结果,y表示模型的目标输出结果,m为一次迭代过程中的样本数目,Loss为损失函数。
5.如权利要求1所述的方法,其特征在于,步骤S5的具体实现过程包括以下子步骤:
步骤S5.1:从生成的带噪声的训练数据中随机选取批量大小batch_size的数据用于模型的训练;
步骤S5.2:设置模型训练的参数;
步骤S5.3:利用生成的带有噪声的训练数据以及优化算法训练模型,当模型经过若干轮训练后,损失小于阈值时结束训练,得到训练后的文字透底现象去除模型。
6.如权利要求5所述的方法,其特征在于,模型训练的参数包括学习率、训练步数、批量大小。
7.如权利要求1所述的方法,其特征在于,在步骤S5之后,所述方法还包括:将文字透底数据作为测试数据集对训练后的文字透底现象去除模型进行评估。
8.如权利要求7所述的方法,其特征在于,将文字透底数据作为的测试数据集对训练后的文字透底现象去除模型进行评估,具体包括:
输入测试数据集后,载入模型的结构,接着加载模型的最佳网络参数,最后将模型处理后生成的去除了文字透底现象的结果保存在本地。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学,未经武汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910378389.6/1.html,转载请声明来源钻瓜专利网。