[发明专利]一种融合知识的对话生成方法有效
申请号: | 202011182518.3 | 申请日: | 2020-10-29 |
公开(公告)号: | CN112231461B | 公开(公告)日: | 2022-05-17 |
发明(设计)人: | 倪斌;庄福振;安竹林;程坦;徐勇军;陆晓蕾;马涛;童逸琦 | 申请(专利权)人: | 中国科学院计算技术研究所厦门数据智能研究院 |
主分类号: | G06F16/332 | 分类号: | G06F16/332;G06F16/36;G06F40/126;G06F40/205;G06F40/284;G06F40/295 |
代理公司: | 厦门致群财富专利代理事务所(普通合伙) 35224 | 代理人: | 刘兆庆 |
地址: | 361000 福建省*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 融合 知识 对话 生成 方法 | ||
1.一种融合知识的对话生成方法,其特征在于:包括如下步骤:
S1、构建知识图谱;
S2、构建对话模型,所述对话模型由编码器和解码器组成,具体为步骤为:
S21、词编码:所述词编码是利用google开源的Bert模型提取对话的词向量表示,即词编码X_Bert;
S22、知识编码:所述知识编码是利用TransE算法获取实体的知识向量表示,即知识编码X_transe;
S23、双跳实体编码:所述双跳实体编码是使用GAT图注意力机制对双跳实体进行编码,得到双跳实体编码X_2hop;
所述双跳实体编码是对于节点Ai,逐个计算它的相邻节点集合N(Ai)={B1,B2,B3,…Bn}的单跳实体编码后,再 通过同样的方法迭代计算Ai的实体编码,具体步骤如下:
S231、计算B1与周围实体N(B1)={C11,C12,…C1n}的注意力系数αj:
其中,hB1和hj表示节点B1和节点j的词表示即TransE知识编码,W为共享的可学习参数,将(WhB1||Whj)的结果映射到一个实数eb1j上,计算出相似系数后,利用softmax公式得到各个节点的加权系数,即注意力系数αj;
S232、将B1周围的节点的词表示加权求和作为节点B1新的表示,权重为上述得出的注意力系数αj,
h'B1=σ(∑αB1jUhj),j∈N(B1);
其中,h'B1为节点B1新的词表示,σ为激活函数,αB1j为B1和C1j的注意力系数,U为共享的可学习参数;
S233、通过与上述步骤S231和步骤S232同样的方法,依次计算出B1,B2,B3,…Bn的单跳节点词表示,最后迭代计算出Ai的双跳实体编码;
S24、加权合并:将得到的所述词编码X_Bert、所述知识编码X_transe和所述双跳实体编码X_2hop的结果加权相加后,经过一层前馈神经网络后作为解码器的输入;所述加权相加的公式为:α*X_bert+β*X_transe+γ*X_2hop,其中α、β、γ分别表示X_bert、X_transe、X_2hop的加权系数,α、β、γ的取值范围均为0~1;
S25、解码:所述解码器的主体架构采用循环神经网络RNN,并在除首个RNN神经元以外的每个RNN神经元上都加入上一个词的图嵌入X_transe_decoder,即单跳词编码,将X_transe_decoder和RNN的隐变量hi相加后输入到下一个神经元中进行处理。
2.如权利要求1所述的一种融合知识的对话生成方法,其特征在于:所述知识图谱采用开源的知识图谱或基于业务场景构建的领域知识图谱。
3.如权利要求2所述的一种融合知识的对话生成方法,其特征在于:所述开源的知识图谱包括OpenCyc、WordNet、Freebase、Dbpedia、ConceptNet中的一种或多种。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院计算技术研究所厦门数据智能研究院,未经中国科学院计算技术研究所厦门数据智能研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011182518.3/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种诺如病毒核酸检测试剂盒
- 下一篇:一种吊装索具的专用制作工具