[发明专利]基于图注意力神经网络的知识图谱表示方法在审
申请号: | 202111145745.3 | 申请日: | 2021-09-28 |
公开(公告)号: | CN114036308A | 公开(公告)日: | 2022-02-11 |
发明(设计)人: | 杨亚明;管子玉;赵伟;李康 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06F16/36 | 分类号: | G06F16/36;G06N3/04;G06N3/08 |
代理公司: | 西安恒泰知识产权代理事务所 61216 | 代理人: | 王芳 |
地址: | 710071*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 注意力 神经网络 知识 图谱 表示 方法 | ||
本发明公开了一种基于图注意力神经网络的知识图谱表示方法,包括如下步骤:步骤11,根据知识图谱构建异质图;步骤12,初始化六种连接对应的行归一化后的邻接矩阵;步骤21,定义异质图神经网络第l层所有的头节点、关系节点、尾节点的表示;步骤22,判断知识图谱数据是否包含头实体和关系的特征信息,是则执行步骤23,否则执行步骤24;步骤23,赋值给异质图神经网络第0层所有头节点、关系节点、尾节点的表示;步骤24,随机初始化;步骤3,用深层异质图卷积网络进行L次前向传播,得到知识图谱的头实体、关系、尾实体的最终表示。本发明既有语义翻译的简便性的优点,又能利用卷积操作提取更丰富的语义信息和多阶知识,使表示更有效。
技术领域
本发明属于数据挖掘技术领域,涉及一种知识图谱表示方法,具体是一种基于图注意力神经网络的知识图谱表示方法。
背景技术
近年来,表示学习在图像处理、自然语言处理、图数据处理等领域取得了重要的进展。受此启发,研究者们提出知识表示学习,即,将知识嵌入到低维欧式空间。实体与关系被表示为低维空间中的稠密实值向量。这样可以高效地计算实体与关系之间复杂的语义关联,方便知识的构建、推理、融合等一系列任务。
翻译模型作为最典型的知识表示框架,有着很好的性能和扩展性,得到了学者们的广泛关注。通常,一条知识可以被表示为h,r,t三元组结构,表明实体h到实体t的关系为 r。翻译语义是指:在低维空间内,使实体与关系的嵌入向量满足‖h+r-t‖≈0。翻译模型通过保留翻译语义,只利用很少的参数就可以将知识嵌入到低维空间。然而,目前翻译模型对于多阶知识的考虑仍然不足。例如,实体“某国第*任A职务”(以下简称“A职务”)可以被表示为如下:
0阶知识:A职务(自身特征);
1阶知识:某A+职业;
2阶知识:某A+(B职务-某B)或者(某C-关系)+职业;
3阶知识:(某C-关系)+(B职务-某B)。
在具体任务中,不同阶的知识不同程度地,从不同的侧面刻画一个实体或者关系。
最近,图卷积网络GCN(Graph Convolutional Network)作为一种新的在图数据上进行深度学习的方法,成为研究者们关注的一个新的热点。GCN在多项图数据的处理任务中取得了当前最好的性能。受此激发,有一些研究工作开始尝试利用GCN来对知识进行嵌入。KGCN将实体当作节点,将关系当作边来构造一个图来进行图卷积运算。然而该方法没有保留翻译语义。AVR-GCN将实体区分为头节点和尾节点两种角色,并将翻译语义结合到对实体的图卷积运算中。然而,该方法忽略了关系在翻译语义中的重要性,将关系表示为头实体与尾实体的联合,从而破坏了翻译语义。RDGCN和GCN(SE+AE)分别提出了各自的启发式机制将关系转化为实体之间的连边权值,再进行图卷积运算。这样容易引入人的偏见,也可能引入新的误差。此外,现有的利用GCN对知识进行嵌入的方法,均无法有效地将任意多阶知识表示出来,也无法根据具体任务学习不同阶知识的重要性。
发明内容
本发明的目的在于,提供一种基于图注意力神经网络的知识图谱表示方法,解决现有的利用GCN网络对知识进行嵌入的方法无法有效考虑任意多阶知识并根据具体任务学习其重要性的技术问题。
为了实现上述目的,本发明采用如下技术方案予以解决:
一种基于图注意力神经网络的知识图谱表示方法,其特征在于,包括如下步骤:
步骤1,根据知识图谱数据,构建异质图,初始化邻接矩阵,具体包括如下子步骤:
步骤11,根据知识图谱的每一条h,r,t三元组构建异质图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111145745.3/2.html,转载请声明来源钻瓜专利网。