[发明专利]知识库实体对齐方法和装置在审

专利信息
申请号: 202010104948.7 申请日: 2020-02-20
公开(公告)号: CN113282676A 公开(公告)日: 2021-08-20
发明(设计)人: 李涓子;李成江;史佳欣;侯磊;张鹏;唐杰;许斌 申请(专利权)人: 清华大学
主分类号: G06F16/28 分类号: G06F16/28;G06N3/04
代理公司: 北京路浩知识产权代理有限公司 11002 代理人: 马瑞
地址: 100084 北*** 国省代码: 北京;11
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 知识库 实体 对齐 方法 装置
【权利要求书】:

1.一种知识库实体对齐方法,其特征在于,包括:

使用图注意力神经模型将待对齐的至少两个知识库进行实体编码,获得注意力增强的实体向量表示,且所述注意力增强的实体向量表示融合了实体邻居信息;

基于注意力增强的实体向量表示,使用知识库表示学习模型,获得用于约束所述实体向量表示的第一约束条件;

基于预先确定的等价实体对集合,获得第二约束条件;

基于所述第一约束条件和所述第二约束条件,实现所述至少两个知识库之间的实体对齐。

2.根据权利要求1所述的知识库实体对齐方法,其特征在于,所述使用图注意力神经模型将待对齐的至少两个知识库进行实体编码,获得注意力增强的实体向量表示,且所述注意力增强的实体向量表示融合了实体邻居信息,包括:

对于任一知识库,获取所述任一知识库的实体及所有实体的邻居集合;

将包括一个实体的向量表示矩阵和所述邻居集合输入至所述图注意力神经模型,得到所述图注意力神经模型输出的所述实体向量表示;其中为有理数,n为所述任一知识库的实体数量,s为向量表示的维度。

3.根据权利要求2所述的知识库实体对齐方法,其特征在于,所述图注意力神经模型包括L层卷积层,每一层应用公式

H(l+1)=σ(A(l)H(l)W(l))

确定,

其中,为第l层的隐状态,为第l层的参数,H(0)=X,σ(·)为非线性激活函数ReLU(·)=max(0,·),为所述任一知识库在自注意力机制作用下的连接性矩阵,A(l)的每一个元素表示所述任一知识库中实体ei到ej的权重,A(l)应用公式

确定,

其中,为包含实体ei及所述实体ei的邻居实体的集合,k为实体e的编号,ek为所述集合中的任一实体,为实体ei到ej的注意力参数,应用公式

确定,

其中,分别为实体ei和ej的隐状态,

λ为预设常数,为学习的参数,·T为矩阵的转置变换,为向量的拼接操作。

4.根据权利要求1-3中任一项所述的知识库实体对齐方法,其特征在于,所述基于注意力增强的实体向量表示,使用知识库表示学习模型,获得用于约束所述实体向量表示的第一约束条件,包括:

基于所述实体向量表示,获取待约束的实体;

根据所述待约束的实体和随机初始化且学习得到的关系,获取所述知识库的事实三元组正例;

基于所述事实三元组正例,获取对应的事实三元组负例;

根据所述事实三元组正例和所述事实三元组负例,获得所述第一约束条件。

5.根据权利要求4所述的知识库实体对齐方法,其特征在于,所述第一约束条件包括目标函数:

其中,[·]+=max(0,·),f(eh,r,et)=||eh+r-et||2,||·||2为二范数,实体eh和et的向量表示根据所述实体向量表示得到,关系r的向量表示根据随机初始化且学习得到的关系向量表示R,为随机初始化且学习得到的关系向量表示,γ1为预设的表征事实三元组正例(eh,r,et)和事实三元组负例(e'h,r',e′t)的间隔的超参数。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202010104948.7/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top