[发明专利]基于深度学习的实体和实体关系识别方法及装置在审
申请号: | 201810053818.8 | 申请日: | 2018-01-19 |
公开(公告)号: | CN108280062A | 公开(公告)日: | 2018-07-13 |
发明(设计)人: | 鄂海红;宋美娜;胡莺夕;王晓晖 | 申请(专利权)人: | 北京邮电大学 |
主分类号: | G06F17/27 | 分类号: | G06F17/27 |
代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 张润 |
地址: | 100876 北京市海淀区西*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 实体关系 标签 关系抽取 序列标注 词向量 配对 自然语言处理技术 标记方式 关系位置 实体位置 输入文本 文本转换 编解码 向量 预设 学习 单词 排序 输出 概率 成功 | ||
1.一种基于深度学习的实体和实体关系识别方法,其特征在于,包括以下步骤:
输入文本,并将所述文本转换为词向量,其中,采用实体位置、实体关系和关系位置的标记方式;
通过编解码的方式对所述词向量进行序列标注,以获取序列标注的词向量;以及
对模型的输出进行第二次排序,其中,选择每个单词的概率最高的预设数量的标签作为候选,并进行标签配对,以配对成功后获取正确标签。
2.根据权利要求1所述的基于深度学习的实体和实体关系识别方法,其特征在于,所述通过编解码的方式对所述词向量进行序列标注,进一步包括:
采用双向LSTM模型,并将两个方向的LSTM网络在每个时间节点的输出进行拼接,输入到解码器的所述LSTM网络,其中,所述LSTM网络采用单向LSTM网络,对每个时间节点的隐藏状态输出做全连接网络的转换,输入soft Max选择标记。
3.根据权利要求2所述的基于深度学习的实体和实体关系识别方法,其特征在于,还包括:
采用多标签分类技术与神经网络的融合,采用预设的损失函数进行网络优化,所述预设的损失函数为:
其中,Ei表示一个训练集,Yi表示应该有的标签,表示不应该有的标签。表示在i个单词的应该有的标签的输出概率,表示在i个单词对应的不应该有的标签的输出概率。
4.根据权利要求1所述的基于深度学习的实体和实体关系识别方法,其特征在于,所述输入文本,并将所述文本转换为词向量,其中,采用实体位置、实体关系和关系位置的标记方式,还包括:
采用谷歌预训练好的词向量模型进行初始化,所述词向量随着模型训练进行自动优化。
5.根据权利要求4所述的基于深度学习的实体和实体关系识别方法,其特征在于,所述实体位置为一个实体的开始、结尾、单个实体、中间实体,所述实体关系为预设好的希望识别的实体关系,所述关系位置为该实体是这个实体关系的主语还是宾语。
6.一种基于深度学习的实体和实体关系识别装置,其特征在于,包括:
词向量模块,用于输入文本,并将所述文本转换为词向量,其中,采用实体位置、实体关系和关系位置的标记方式;
序列标注模块,用于通过编解码的方式对所述词向量进行序列标注,以获取序列标注的词向量;以及
re-rank模块,用于对模型的输出进行第二次排序,其中,选择每个单词的概率最高的预设数量的标签作为候选,并进行标签配对,以配对成功后获取正确标签。
7.根据权利要求6所述的基于深度学习的实体和实体关系识别装置,其特征在于,所述序列标注模块还用于采用双向LSTM模型,并将两个方向的LSTM网络在每个时间节点的输出进行拼接,输入到解码器的所述LSTM网络,其中,所述LSTM网络采用单向LSTM网络,对每个时间节点的隐藏状态输出做全连接网络的转换,输入soft Max选择标记。
8.根据权利要求7所述的基于深度学习的实体和实体关系识别装置,其特征在于,采用多标签分类技术与神经网络的融合,采用预设的损失函数进行网络优化,所述预设的损失函数为:
其中,Ei表示一个训练集,Yi表示应该有的标签,表示不应该有的标签。表示在i个单词的应该有的标签的输出概率,表示在i个单词对应的不应该有的标签的输出概率。
9.根据权利要求6所述的基于深度学习的实体和实体关系识别装置,其特征在于,所述词向量模块还用于采用谷歌预训练好的词向量模型进行初始化,所述词向量随着模型训练进行自动优化。
10.根据权利要求9所述的基于深度学习的实体和实体关系识别装置,其特征在于,所述实体位置为一个实体的开始、结尾、单个实体、中间实体,所述实体关系为预设好的希望识别的实体关系,所述关系位置为该实体是这个实体关系的主语还是宾语。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京邮电大学,未经北京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810053818.8/1.html,转载请声明来源钻瓜专利网。