[发明专利]一种基于模型融合的OCR识别方法在审
申请号: | 202010325757.3 | 申请日: | 2020-04-23 |
公开(公告)号: | CN111611985A | 公开(公告)日: | 2020-09-01 |
发明(设计)人: | 张昊;傅枧根 | 申请(专利权)人: | 中南大学 |
主分类号: | G06K9/20 | 分类号: | G06K9/20;G06K9/34;G06N3/04;G06N3/08 |
代理公司: | 广州嘉权专利商标事务所有限公司 44205 | 代理人: | 邓建辉 |
地址: | 410000 湖南*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 模型 融合 ocr 识别 方法 | ||
1.一种基于模型融合的OCR识别方法,其特征在于,采用若干识别模型搭建深度学习神经网络模型,所述识别模型分别对字符定位数据进行训练,至模型收敛后得到预输出识别结果,将所述预输出识别结果融合优化后输出最终识别结果。
2.根据权利要求1所述的OCR识别方法,其特征在于,包括以下步骤:
获得经过数据集预处理的识别模型和字符定位数据;
获得基于所述识别模型的深度学习神经网络模型;
获得预输出识别结果,所述预输出识别结果通过将所述字符定位数据输入所述深度学习神经网络模型进行训练后得到;
获得最终识别结果,所述最终识别结果由所述预输出识别结果经过融合优化后得到。
3.根据权利要求2所述的OCR识别方法,其特征在于,所述数据集包括训练集、验证集和测试集。
4.根据权利要求3所述的OCR识别方法,其特征在于,所述训练集、验证集和测试集的比例为4:1:1。
5.根据权利要求1或2所述的OCR识别方法,其特征在于,所述字符定位数据由深度学习技术得到,所述深度学习技术包括pixel-link神经网络技术。
6.根据权利要求1或2所述的OCR识别方法,其特征在于,所述识别模型包括VGG+BLSTM+Attention模型,DenseNet+GRU+Attention模型和VGG+BLSTM+CTC模型。
7.根据权利要求1或2所述的OCR识别方法,其特征在于,所述融合优化的方法包括投票计数法。
8.根据权利要求7所述的OCR识别方法,其特征在于,所述投票计数法为:在若干个识别结果中,选择相同结果投票次数最多的结果作为最终识别结果。
9.根据权利要求7所述的OCR识别方法,其特征在于,所述融合优化的方法还包括加权计算法。
10.根据权利要求9所述的OCR识别方法,其特征在于,所述的加权计算法为:当存在若干个最大投票次数相同的识别结果时,选择权重最大的识别结果作为最终识别结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中南大学,未经中南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010325757.3/1.html,转载请声明来源钻瓜专利网。