[发明专利]学习系统中的测试题检索方法、装置、设备及存储介质在审
申请号: | 201911269580.3 | 申请日: | 2019-12-11 |
公开(公告)号: | CN111078724A | 公开(公告)日: | 2020-04-28 |
发明(设计)人: | 易显维 | 申请(专利权)人: | 中国建设银行股份有限公司;建信金融科技有限责任公司 |
主分类号: | G06F16/242 | 分类号: | G06F16/242;G06F16/22;G06F16/2453;G06Q50/20 |
代理公司: | 北京市兰台律师事务所 11354 | 代理人: | 张峰 |
地址: | 100033 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 学习 系统 中的 测试 检索 方法 装置 设备 存储 介质 | ||
本发明提供一种学习系统中的测试题检索方法、装置、设备及存储介质,涉及数据处理技术领域。本发明可以建立包含有公式的测试题与公式之间的倒排索引,当接收到用户输入的公式后,可以根据用户输入的公式、以及预设的倒排索引,在数据库中查询对应的测试题,实现测试题的检索。相对现有的学习系统中的测试题检索方式而言,本发明实施例提供的学习系统中的测试题检索方法可以具有更高的检索成功率。
技术领域
本发明涉及数据处理技术领域,具体而言,涉及一种学习系统中的测试题检索方法、装置、设备及存储介质。
背景技术
在学习系统中,测试题可以保存在数据库中,当用户需要查找某个测试题时,可以在前端界面输入关键词,然后学习系统可以根据用户输入的关键词在数据库中查找对应的测试题,并返回给前端界面展示给用户。
目前,常见的学习系统的实现方式如下:1)对所有需要录入学习系统中的测试题图像数据进行光学字符识别(Optical Character Recognition,OCR),抽取其中的文本内容;2)对抽取到的文本内容进行分词处理,建立关键词与测试题之间的倒排索引。然后,学习系统可以基于建立的倒排索引,根据用户输入的关键词,在数据库中检索对应的测试题。
但是,上述现有的学习系统的实现方式中,基于倒排索引,根据用户输入的关键词,在数据库中检索对应的测试题时,往往会根据关键词搜索出很多选项,导致检索成功率较低。
发明内容
本发明提供一种学习系统中的测试题检索方法、装置、设备及存储介质,可以根据用户输入的公式,在数据库中检索对应的测试题,提高测试题的检索成功率。
第一方面,本发明实施例提供一种学习系统中的测试题检索方法,该方法包括:
接收用户输入的公式;根据用户输入的公式、以及预设的倒排索引,在数据库中查询对应的测试题;其中,倒排索引用于表示测试题与测试题中的公式之间的映射关系。
可选地,所述根据所述用户输入的公式、以及预设的倒排索引,在数据库中查询对应的测试题之前,该方法还包括:
获取包含有公式的测试题;根据测试题中的公式,构建公式语法树;根据公式语法树生成对应的拉泰赫latex格式的公式文本;根据latex格式的公式文本、以及测试题,建立倒排索引。
可选地,所述获取包含有公式的测试题,包括:获取包含有公式的测试题图像。所述根据测试题中的公式,构建公式语法树,包括:
采用第一预设网络,定位测试题图像中的公式区域;采用第二预设网络,分割出测试题图像中的公式区域;采用第三预设网络,识别出公式区域中的符号、数字以及字母;根据公式区域中的符号、数字以及字母,构建公式语法树。
可选地,所述采用第二预设网络,分割出测试题图像中的公式区域之前,该方法还包括:
获取随机生成的样本公式图像集合、以及样本公式图像集合中的样本公式图像对应的蒙版;根据样本公式图像集合、以及样本公式图像集合中的样本公式图像对应的蒙版,对Unet网络进行训练,得到第二预设网络。
可选地,第一预设网络为高校场景文本检测网络Advanced East。所述采用第二预设网络,分割出测试题图像中的公式区域,包括:
创建一张和测试题图像大小相同的白色图像;根据Advanced East输出的像素点坐标标记白色图像,得到标记后的白色图像;采用第二预设网络,并根据标记后的白色图像,对测试题图像中的公式区域进行分割。
第二方面,本发明实施例提供一种学习系统中的测试题检索装置,该装置包括:接收模块,用于接收用户输入的公式;查询模块,用于根据用户输入的公式、以及预设的倒排索引,在数据库中查询对应的测试题;其中,倒排索引用于表示测试题与测试题中的公式之间的映射关系。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国建设银行股份有限公司;建信金融科技有限责任公司,未经中国建设银行股份有限公司;建信金融科技有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911269580.3/2.html,转载请声明来源钻瓜专利网。