[发明专利]中文文本的识别方法及装置有效
申请号: | 201910625565.1 | 申请日: | 2019-07-11 |
公开(公告)号: | CN110472230B | 公开(公告)日: | 2023-09-05 |
发明(设计)人: | 张懿 | 申请(专利权)人: | 平安科技(深圳)有限公司 |
主分类号: | G06F40/289 | 分类号: | G06F40/289;G06F40/253;G06N3/0455 |
代理公司: | 北京中强智尚知识产权代理有限公司 11448 | 代理人: | 黄耀威 |
地址: | 518000 广东省深圳市福田街*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 中文 文本 识别 方法 装置 | ||
本发明提供了一种中文文本的识别方法及装置,其中,该方法包括:采用预设推荐网络提取目标中文文本的表述主干,其中,所述预设推荐网络包括以下至少之一:自匹配推荐网络,自注意力推荐网络;采用通过Encoder‑Decoder模型识别所述表述主干的表达含义;将所述表达含义确定为所述目标中文文本的识别结果。通过本发明,解决了现有技术中不能识别复杂句式的中文文本的技术问题。
技术领域
本发明涉及人工智能领域,具体而言,涉及一种中文文本的识别方法及装置。
背景技术
现有技术中,NLP(Natural Language Processing,自然语言处理)深度学习训练的分类/回归器更多的是针对文本整体,而在自然语言中,中文的描述非常丰富,比喻、借代、比拟等“反科学常识”修辞手法比比皆是,如何在复杂的中文辞藻中,判断表述的主干,抽取有实际意义的陈述是亟待解决的问题。
针对现有技术中存在的上述问题,目前尚未发现有效的解决方案。
发明内容
本发明实施例提供了一种中文文本的识别方法及装置,用于解决现有技术中不能识别复杂句式的中文文本的技术问题。
根据本发明的一个实施例,提供了一种中文文本的识别方法,包括:采用预设推荐网络提取目标中文文本的表述主干,其中,所述预设推荐网络包括以下至少之一:自匹配推荐网络,自注意力推荐网络;采用通过Encoder-Decoder模型识别所述表述主干的表达含义;将所述表达含义确定为所述目标中文文本的识别结果。
可选的,采用预设推荐网络提取目标中文文本的表述主干包括:采用自匹配推荐网络提取目标中文文本的第一表述主干,以及采用自注意力推荐网络提取目标中文文本的第二表述主干;在所述第一表述主干和所述第二表述主干中根据预设条件选择一个优先级高的表述主干,其中,所述预设条件包括以下之一:表述主干的语法结构、表述主干的字数范围。
可选的,采用自匹配推荐网络提取目标中文文本的第一表述主干包括:采用预设语料库建立模糊规则库;采用高斯隶属度函数将所述目标中文文本进行模糊化处理得到事实项,采用rete算法将事实项与模糊规则库中的规则进行匹配,得到模糊推理结果;将模糊推理结果进行去模糊化得出最终推理结果,并将所述最终推理结果确定为所述第一表述主干。
可选的,采用rete算法将事实项与模糊规则库中的规则进行匹配,得到模糊推理结果,包括:构建rete模糊模式,以及构建rete连接网络,其中,rete连接网络将模糊规则中具有归属关系的rete模糊模式作为一个集合,实现对模糊规则前件的构建,每个连接网设置一个rete flag标识来记录该连接网是否匹配成功;将事实项与rete模糊模式的测试域进行匹配,并将匹配成功的事实项存储到对应的α寄存器中,并根据α寄存器的更新状态进行rete flag的更新,将rete flag为true的模糊规则的结论作为模糊推理结果。
可选的,采用自注意力推荐网络提取目标中文文本的第二表述主干包括:针对每个单词创建一个上下文向量,并使用所述上下文向量和单词的原始向量构建组合向量;利用非对称卷积神经网络对所有单词的组合向量进行合成形成句子向量,利用双向门循环神经网络对所有句子的句子向量进行合成形成文档向量;依次删除文档向量中的任一单词的组合向量,并计算源文档与删除后文档的相似度,选择相似度最小的n个单词按照其在文档中的原时序组合成第二表述主干,其中,n为大于1的整数。
可选的,采用通过Encoder-Decoder模型识别所述表述主干的表达含义包括:采用编码器Encoder将所述表述主干编码成一个上下文向量c;将c作为初始状态h0输入到解码器Decoder的第一级解码函数,然后将第一级函数的输出作为第二级函数的输入,依次得到所有函数的输出,将所有函数的输出集合作为Decoder的解码结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于平安科技(深圳)有限公司,未经平安科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910625565.1/2.html,转载请声明来源钻瓜专利网。