[发明专利]一种结合知识库的基于MRC的公司实体消歧方法在审
申请号: | 202011070276.9 | 申请日: | 2020-09-30 |
公开(公告)号: | CN112257443A | 公开(公告)日: | 2021-01-22 |
发明(设计)人: | 张汝宸;朱德伟;朱峰 | 申请(专利权)人: | 华泰证券股份有限公司 |
主分类号: | G06F40/295 | 分类号: | G06F40/295;G06F40/211;G06F16/33;G06F16/35;G06N3/04;G06N3/08 |
代理公司: | 南京纵横知识产权代理有限公司 32224 | 代理人: | 董建林 |
地址: | 210019 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 结合 知识库 基于 mrc 公司 实体 方法 | ||
1.一种结合知识库的基于MRC的公司实体消歧方法,其特征在于,包括如下步骤:
获取待消歧语句;
将所述待消歧语句与提问句进行拼接,得到MRC结构;
从实体知识库中获取待消歧语句中歧义简称对应的不同的实体描述语句;
将不同的实体描述语句拼接在MRC结构的最后;
将拼接了不同实体描述语句的MRC结构输入至Bert模型中;
所述Bert模型输出歧义简称对应的真实实体,实现语句消歧。
2.根据权利要求1所述的一种结合知识库的基于MRC的公司实体消歧方法,其特征在于,所述Bert模型的输出端设置有两个损失函数;所述损失函数包括第一任务损失函数和第二任务损失函数。
3.根据权利要求2所述的一种结合知识库的基于MRC的公司实体消歧方法,其特征在于,所述第一任务损失函数为二分类损失;第二任务损失函数为多分类损失。
4.根据权利要求2所述的一种结合知识库的基于MRC的公司实体消歧方法,其特征在于,所述第一任务损失函数通过如下公式表示:
output1=Sigmoid(W1×H[CLS])
loss1=binary_crossentropy(output1,label1)
式中,output1表示任务一的模型输出;sigmoid()表示逻辑(logistic)函数;W1表示任务计算任务一输出的权重矩阵;H【CLS】表示句首位置处的语义向量;loss1表示任务一的损失;binary_crossentropy()表示二分类交叉熵损失计算函数;label1表示任务一的真实标签。
5.根据权利要求2所述的一种结合知识库的基于MRC的公司实体消歧方法,其特征在于,所述第二任务损失函数通过如下公式表示:
entity_outputi=Sigmoid(Wentity_i×Hentity_i)
lossentity_i=binary_crossentropy(entity_outputi,labelentity_i)
式中,entity_outputi表示第i个实体处的模型输出;Wentity_i表示计算第i个实体处输出的权重矩阵;Hentity_i表示第i个实体位置处的语义向量;lossentity_i表示第i个实体的损失;labelentity_i表示第i个实体的真实标签;loss2表示任务二的损失;n表示歧义实体简称可能对应实体的数量。
6.根据权利要求2所述的一种结合知识库的基于MRC的公司实体消歧方法,其特征在于,所述Bert模型通过第一任务损失函数和第二任务损失函数对拼接了不同实体描述语句的MRC结构进行消歧,具体的消歧过程如下:
通过所述第一任务损失函数判断待消歧语句中是否存在歧义简称;
若存在,则通过第二任务损失函数从不同实体描述语句中获取歧义简称对应的真是实体。
7.根据权利要求1所述的一种结合知识库的基于MRC的公司实体消歧方法,其特征在于,所述Bert模型通过12层的基础神经网络结构堆叠而来。
8.根据权利要求7所述的一种结合知识库的基于MRC的公司实体消歧方法,其特征在于,对Bert模型进行训练,将MRC结构输入至训练后的Bert模型中实现语句消歧;所述Bert模型的训练方法包括:
设置Bert模型中基础神经网络结构的参数;
将最后3层基础神经网络结构的参数等概率随机初始化;
训练参数随机初始化后的Bert模型,待Bert模型的损失函数收敛后,停止训练,得到训练优化后的Bert模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华泰证券股份有限公司,未经华泰证券股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011070276.9/1.html,转载请声明来源钻瓜专利网。