[发明专利]一种基于卷积神经网络的中文问答系统的属性选择方法及存储介质有效
申请号: | 202110210928.2 | 申请日: | 2021-02-25 |
公开(公告)号: | CN112860867B | 公开(公告)日: | 2022-07-12 |
发明(设计)人: | 匡平;李娜 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06F16/332 | 分类号: | G06F16/332;G06F16/33;G06F40/211;G06F40/289;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 成都华风专利事务所(普通合伙) 51223 | 代理人: | 张巨箭 |
地址: | 610000 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 卷积 神经网络 中文 问答 系统 属性 选择 方法 存储 介质 | ||
本发明属于问答系统领域,具体公开了一种基于卷积神经网络的中文问答系统的属性选择方法及存储介质,方法使用多种分词方式分别对问句、候选属性进行分词,并引入多头自注意力机制得到多个多头自注意力输入矩阵,分别输入到卷积神经网络中进行训练,得到多个问句特征向量和多个候选属征向量,分别将多个问句特征向量和多个候选属征向量拼接然后交互融合,得到交互融合矩阵;将所述矩阵再次进行卷积。本发明通过多粒度、多头自注意力机制、卷积池化操作后,对已经得到的能充分表示句子的特征向量进行交互融合,并在交互融合后再一次卷积,不管在句子表示方面还是相似度计算方面,都较传统的方法表现的更好。
技术领域
本发明涉及问答系统领域领域,特别涉及一种基于卷积神经网络的中文问答系统的属性选择方法及存储介质。
背景技术
随着大数据时代的到来,传统的通过搜索引擎进行信息检索的方式已经不能完全满足用户的需求,信息的多样化也导致用户可能无法直接查询到有用的信息。问答系统则是针对以上不足,让用户直接提问,返回给用户清晰明了的答案,提高查询信息的效率。而在基于知识图谱的问答系统中,除了命名实体识别外,最关键的部分就是属性选择(关系预测),即在所有的候选属性中选择出最符合问句的三元组,并组织成答案返回给用户,但是基于知识图谱的问答系统在中文语料上的研究成果(论文、专利)相比于英文语料要少很多,在中文领域实现问答系统十分重要。
目前,中文问答系统的属性选择方法遇到的问题主要有以下几点:
(1)中文语句分词难度远远大于英文语句的分词,英文往往是以单词作为分词标准,而对于中文语句,因为中文的博大精深,很多单独的字也可以组成一个单词,很多词在不同的短语中的含义也不同,没有一个完美的分词器对句子进行分词。
(2)中文语义理解复杂,简单的神经网络无法充分理解句子的语义特征。
(3)卷积神经网络虽然在特定区域上可以很好的获取句子的局部特征,但是卷积神经网络很难获取到句子中部分词与词之间的关联信息。
发明内容
本发明主要提供一种基于卷积神经网络的中文问答系统的属性选择方法及存储介质,能够解决现有中文问答系统的属性选择方法遇到的问题。
为了解决上述技术问题,本发明提供一种基于卷积神经网络的中文问答系统的属性选择方法,包括以下内容:
使用多种分词方式分别对问句进行分词,预处理后进行映射得到多个问句词向量矩阵;使用所述多种分词方式分别对候选属性进行分词,预处理后进行映射得到多个属性词向量矩阵;
将所述多个问句词向量矩阵和多个属性词向量矩阵作为模型的输入层,并引入多头自注意力机制分别对所述多个问句词向量矩阵和多个属性词向量矩阵进行变换,得到多个多头自注意力输入矩阵;
对所述多个多头自注意力输入矩阵进行训练后输出问句和候选属性的相似度,并选择相似度最高的候选属性作为最终选择的属性。
优选地,对所述多个多头自注意力输入矩阵进行训练包括:
第一次训练:将所述多个多头自注意力输入矩阵分别输入到多个卷积神经网络中进行第一次训练并进行第一次池化处理和拼接,得到多个问句特征向量和多个候选属征向量;
将所述多个问句特征向量拼接到一起,形成总问句特征向量,将所述多个候选属征向量拼接到一起,形成总候选属性特征向量;
第二次训练:将所述总问句特征向量和总候选属性特征向量进行交互融合,得到一个融合矩阵,将所述融合矩阵输入到一个卷积神经网络中进行训练,得到第二次训练特征向量;
输出分类:将所述第二次训练特征向量依次进行第二次池化处理、拉平后输入到全连接层以及分类。
优选地,所述多种分词方式包括jieba分词工具、斯坦福中文分词器以及字符级分词器。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110210928.2/2.html,转载请声明来源钻瓜专利网。