[发明专利]一种用于知识图谱中知识获取模型的构建方法及系统有效
申请号: | 201711394314.4 | 申请日: | 2017-12-21 |
公开(公告)号: | CN108563653B | 公开(公告)日: | 2020-07-31 |
发明(设计)人: | 刘知远;韩旭;孙茂松 | 申请(专利权)人: | 清华大学 |
主分类号: | G06F16/36 | 分类号: | G06F16/36;G06F16/35;G06N3/04 |
代理公司: | 北京路浩知识产权代理有限公司 11002 | 代理人: | 王莹;吴欢燕 |
地址: | 100084 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 用于 知识 图谱 获取 模型 构建 方法 系统 | ||
本发明提供一种用于知识图谱中知识获取模型的构建方法,包括:构建由多个文本句子为输入数据,以及每个句子内任意两个实体在知识图谱中的关系为分类结果,组成的第一训练集,对第一神经网络进行训练;构建由多个知识图谱中的三元组组成的第二训练集,对第二神经网络进行训练;将第二神经网络中获得的输入数据向量作为第一神经网络的注意力特征,构建关系抽取模型;将第一神经网络中获得的输入数据向量作为第二神经网络的注意力特征,构建知识表示模型;将关系抽取模型和知识表示模型融合,获得用于知识图谱中知识获取的模型。本发明提供的方法,同时整合知识表示与关系抽取两个任务模型,能够综合提取知识图谱与自由文本的特征,提高了模型的稳定性与准确性。
技术领域
本发明涉及信息处理领域,更具体地,涉及一种用于知识图谱中知识获取模型的构建方法及系统。
背景技术
知识图谱,某些场景下也被称为知识库,是一种将现实世界中人类的知识结构化之后形成的知识系统。在知识图谱中,大量的知识,诸如开放数据库和百科全书中的信息,通常以关系数据集合的形式被表达出来。而在关系数据集合中,基本事实被抽象为实体,而规则、逻辑、推理等关联性的信息则被抽象为实体间的关系。若将实体对应于点,关系对应于边,则这些知识可以进一步以图的形式呈现,从而可以被计算机高效的使用,而这也是研究知识图谱的意义所在。这种将实体和抽象概念结构化成多关系数据集合的模式也是近年来被大力提倡的。可以说,知识图谱使得我们接触到的信息,尤其是知识信息,突破了以往文本字符串中基本的线性构成形式,而以实体与关系构成的网络状形式存在。目前知识图谱已经作为人工智能领域的一项基础核心技术,被广泛引入到信息检索、问答系统、推荐系统等任务上。图谱中优质的结构化知识信息,能够指导我们的智能模型具备更深层的事物理解、更精准的任务查询以及一定程度上的逻辑推理能力,从而在这些知识驱动应用中起到至关重要的作用。
在现有的对知识图谱完善的过程中,通常有知识图谱填充以及关系抽取两种方法来获取知识信息并以此拓展知识图谱,其中,知识图谱填充旨在通过图谱内部的网络空间结构来挖掘信息并推测新的知识事实;关系抽取主要是从自由文本中提取特征并用来抓取新的关系事实。虽然依靠的信息来源是不同的,但这两个方向的目标是一致的,即进行知识获取。
目前已有一些将知识图谱和文本语料融合来进行知识信息获取的方法被提出。但是已有的模型只考虑了文本与图谱的局部对应关系,如单纯的实体文本对应或者关系文本对应。此外在特征融合后已有模型仅仅解决了知识获取中单方面的任务,很难将两个任务同时进行解决。此外大量复杂的人工特征提取与语言学的特征预处理也使得已有方法很难在大规模数据上使用。
发明内容
为解决现有知识图谱知识获取模型中,只考虑文本与图谱的部分对应关系,知识获取性能低下的问题,我们提供了一种用于知识图谱中知识获取模型的构建方法及系统。
一方面,本发明提供的方法包括:
S1,构建由多个句子为输入数据,以及每个句子内任意两个实体在知识图谱中的关系为分类结果,组成的第一训练集,用所述第一训练集对第一神经网络进行训练,并获得所述第一训练集的输入数据在所述第一神经网络中转化的向量;
每个句子至少包含2个实体;
S2,构建由多个知识图谱中的三元组组成的第二训练集,对第二神经网络进行训练,并获得所述第二训练集的输入数据在所述第二神经网络中转化的向量;
所述三元组中,头实体和尾实体为所述第二训练集的输入数据,所述头实体和尾实体在知识图谱中的关系作为第二训练集的分类结果;
S3,将所述第二训练集的输入数据在所述第二神经网络中转化的向量作为所述第一神经网络的注意力特征,对所述第一神经网络的训练结果进行加权,构建用于对句子中任意两个实体在知识图谱中关系分类的关系抽取模型;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711394314.4/2.html,转载请声明来源钻瓜专利网。