[发明专利]一种问答关系排序方法、装置、计算机设备及存储介质在审
申请号: | 201910553285.4 | 申请日: | 2019-06-25 |
公开(公告)号: | CN110442689A | 公开(公告)日: | 2019-11-12 |
发明(设计)人: | 朱威;周晓峰 | 申请(专利权)人: | 平安科技(深圳)有限公司 |
主分类号: | G06F16/332 | 分类号: | G06F16/332;G06F16/35;G06F16/36;G06F17/27;G06N3/04;G06N3/08 |
代理公司: | 北京英特普罗知识产权代理有限公司 11015 | 代理人: | 林彦之 |
地址: | 518000 广东省深圳市福田区福*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积神经网络 候选关系 排序 图谱 计算机设备 存储介质 映射 构建 链接 集合 输出 预测 | ||
1.一种问答关系排序方法,其特征在于,包括:
构建卷积神经网络模型,所述卷积神经网络模型用于知识图谱问句关系对的打分,所述问句关系对为问句与映射候选关系之间的集合,所述候选关系为所述问句的实体在知识图谱中所链接的所有关系;
收集第一训练数据,所述第一训练数据为问句文本;
获取所述第一训练数据的问句向量;
获取所述第一训练数据的候选关系向量;
确定所述问句向量与所述候选关系向量的element-wise乘积和element-wise差值绝对值;
拼接所述element-wise乘积向量与所述element-wise差值绝对值向量;
经由全连接网络层将拼接后的向量映射为0到1的数值,所述数值用于对问句关系对的相关性打分;
训练所述卷积神经网络模型;
将待处理问句输入至训练完毕的卷积神经网络模型中,所述卷积神经网络对所述待处理问句的问句关系对的相关性打分;
选取相关性打分最高的候选关系作为预测输出。
2.根据权利要求1所述问答关系排序方法,其特征在于,所述问句向量为单一的向量,经由text-CNN网络模型对所述第一训练数据进行编码,以将所述第一训练数据表示为单一的向量,包括:
将所述训练数据输入至所述text-CNN网络模型的嵌入层以表示为一列低维向量;
经由所述text-CNN网络模型的卷积层与极大池化层将所述一列低维向量表示为单一的向量。
3.根据权利要求1所述问答关系排序方法,其特征在于,所述候选关系的确定包括如下步骤:
基于NER模型获取问句文本中的实体;
经由neo4j的cypher语句查询知识图谱,获取所述实体对应的知识图谱中的所有链接关系,以作为所述问句的候选关系。
4.根据权利要求1或3所述问答关系排序方法,其特征在于,所述候选关系向量为单一的向量,对所述候选关系随机初始化以将所述候选关系表示为单一的向量;若随机初始化导致训练不足,则基于text-CNN网络模型对所述候选关系进行编码以将所述候选关系表示为单一的向量。
5.根据权利要求1所述问答关系排序方法,其特征在于,训练所述卷积神经网络模型包括:
收集第二训练数据,所述第二训练数据为问句文本,将所述第二训练数据标注为正样本和负样本,所述正样本为所述问句关系对中问句与所述问句对应的正确文本关系;所述负样本为所述问句关系对中问句与所述问句对应的除正确文本关系之外的其他文本关系,所述其他文本关系基于预设数量随机采样获取;
设置损失函数,基于所述损失函数将所述正样本与每个所述负样本进行比较,建立所述正样本与每个负样本之间的差异性;
经由梯度下降算法,最优化所述损失函数。
6.根据权利要求5所述问答关系排序方法,其特征在于,所述其他文本关系优先从所述问句实体的候选关系中选择,若所述候选关系数量少于预设数量,则在其他关系中随机选择。
7.根据权利要求5所述问答关系排序方法,其特征在于,所述损失函数为triplet loss损失函数,triplet loss=max(0,margin+m_0-m_1),其中,m_0为问句与其对应的正确关系在模型中的打分,m_1为问句与某个错误关系在模型中的打分,margin为triplet loss超参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于平安科技(深圳)有限公司,未经平安科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910553285.4/1.html,转载请声明来源钻瓜专利网。