[发明专利]基于联合概率矩阵的试卷图像自动核分方法有效
申请号: | 201910327743.2 | 申请日: | 2019-04-23 |
公开(公告)号: | CN110163256B | 公开(公告)日: | 2022-11-15 |
发明(设计)人: | 冯峰;李华康;符旭宇;闫浪迪;孔令军;孙国梓 | 申请(专利权)人: | 南京邮电大学;南京邮电大学盐城大数据研究院有限公司 |
主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V10/82;G06V30/24;G06N3/04;G06N3/08 |
代理公司: | 南京苏科专利代理有限责任公司 32102 | 代理人: | 姚姣阳 |
地址: | 224000 江苏省*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 联合 概率 矩阵 试卷 图像 自动 方法 | ||
本发明揭示了一种基于联合概率矩阵的试卷图像自动核分方法,包括如下步骤:S1、利用训练手写数据集训练得到分数识别模型;S2、使用直线检测算法对待检测的试卷分数所在的矩形区域进行切割;S3、将S2中的结果作为所述分数识别模型的输入,识别并输出可能性最高的N个值;S4、构建联合概率矩阵并创建分数搜索树,计算置信值;S5、对计算结果进行判断、并将计算结果与预设阈值进行比较,最终输出分数计算结果。本发明通过OCR的技术结合TensFlow及CNN卷积网络的方法,利用联合概率矩阵计算识别置信度,实现了对于试卷总分的自动核对统计。本发明不仅有效地提高了核分操作的效率,同时也充分地保证了核分结果的准确性。
技术领域
本发明涉及一种基于OCR数字识别技术的自动核分方法,具体涉及一种基于联合概率矩阵的试卷图像自动核分方法,即通过联合概率计算优化每个分数的深度学习识别概率,达到试卷分数有效核验的目的,属于人工智能中的图像识别领域。
背景技术
OCR(Optical Character Recognition,光学字符识别)技术是一种通过扫描等光学输入方式将各种票据、报刊、书籍、文稿及其它印刷品的文字转化为图像信息,再利用文字识别技术将图像信息转化为计算机可以使用的技术。
在对图像进行预处理之后,需要对图像中的目标进行分析,提取出正确代表不同目标物特点的特征参数(图像特征)。对图像进行特征提取后,再对目标进行不同影像的匹配。最后要对图像中目标物进行识别和解释。设计分类器,建立分类模型,对图像中目标物进行识别和分类。
随着人工智能的迅速发展,机器学习逐渐成为数字识别的主流方法,2015年9月,Google发布了其第二代人工智能系统TensorFlow,一个开源机器学习软件资源库。它是目前最受欢迎的机器学习算法框架,通过利用Google第二代人工智能平台TensorFlow,使用CNN卷积结合Lenet5神经网络算法实现数字图像的识别。
也正是由于上述人工智能系统的出现,为OCR技术的实现提供了有力的技术支持。近年来,也有很多的业内人士开始在实际生活中的诸多方面尝试应用OCR技术。举例而言,在目前对于各类试卷的处理过程中,试卷总分的核对统计通常都需要以人工操作的方式进行。可以预见的,以人工方式核对总分,不仅操作效率低下、而且极易出现失误。因此,如果能将OCR技术应用于试卷核分,那么必将极大地解放学校或机关内的人力资源。
综上所述,如何在现有技术的基础上提出一种基于联合概率矩阵的试卷图像自动核分方法,以解决目前人工核对分数导致效率低下、正确率不高的问题,也就成为了本领域内技术人员共同的研究目标。
发明内容
鉴于现有技术存在上述缺陷,本发明的目的是提出一种基于联合概率矩阵的试卷图像自动核分方法,包括如下步骤:
S1、利用训练手写数据集训练得到分数识别模型;
S2、使用直线检测算法对待检测的试卷分数所在的矩形区域进行切割;
S3、将S2中的结果作为所述分数识别模型的输入,识别并输出可能性最高的N个值;
S4、构建联合概率矩阵并创建分数搜索树,计算置信值;
S5、对计算结果进行判断、并将计算结果与预设阈值进行比较,最终输出分数计算结果。
优选地,S1具体包括如下步骤:
S11、依据试卷上的分数区域,准备一个满足所有分数的训练手写数据集;
S12、使用CNN卷积网络对S11中所述训练手写数据集进行训练,得到分数识别模型。
优选地,S2具体包括如下步骤:
S21、使用直线检测算法对待检测的试卷分数所在的矩形区域进行切割;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学;南京邮电大学盐城大数据研究院有限公司,未经南京邮电大学;南京邮电大学盐城大数据研究院有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910327743.2/2.html,转载请声明来源钻瓜专利网。