[发明专利]文本扩写方法、装置、电子设备和存储介质在审
申请号: | 202210190634.2 | 申请日: | 2022-02-28 |
公开(公告)号: | CN114611525A | 公开(公告)日: | 2022-06-10 |
发明(设计)人: | 李浩然 | 申请(专利权)人: | 北京京东尚科信息技术有限公司 |
主分类号: | G06F40/30 | 分类号: | G06F40/30;G06F40/295;G06F40/126;G06N3/04;G06N3/08 |
代理公司: | 北京路浩知识产权代理有限公司 11002 | 代理人: | 陈新生 |
地址: | 100086 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 文本 方法 装置 电子设备 存储 介质 | ||
1.一种文本扩写方法,其特征在于,所述方法包括:
根据获取的共指实体集合获取第一实体对应的第一共指实体组,其中,所述第一实体为待扩写文本中的实体,所述第一共指实体组包括第一实体以及所述第一实体的共指实体;
根据所述待扩写文本和所述第一共指实体组获取待扩写修改文本;
根据所述待扩写修改文本和文本扩写模型的模型参数获取生成概率、复制概率和生成权重,其中,所述生成权重为获取解码概率时所述生成概率对应的权重,获取所述解码概率时所述复制概率对应的权重与所述生成权重的和为1;
根据所述生成概率、所述复制概率和所述生成权重获取所述解码概率,以得到所述待扩写文本的扩写结果,其中,所述第一实体对应的生成概率被设置为0。
2.根据权利要求1所述的方法,其特征在于,所述文本扩写模型的训练方法包括:
获取第一样本扩写文本数据集,所述第一样本扩写文本数据集中的第一样本扩写文本数据包括作为输入文本的样本修改文本和对应的输出文本,所述样本修改文本根据历史扩写文本及其实体对应的共指实体组得到;
采用所述第一样本扩写文本数据集对所述文本扩写模型进行训练,直到所述文本扩写模型收敛,得到所述文本扩写模型的模型参数,其中,所述文本扩写模型的模型参数包括生成概率参数和激活函数参数组。
3.根据权利要求1所述的方法,其特征在于,所述文本扩写模型包括以下任一种模型:卷积神经网络CNN,循环神经网络RNN和Transformer。
4.根据权利要求1所述的方法,其特征在于,所述根据获取的共指实体集合获取第一实体对应的第一共指实体组之前,所述方法还包括:获取所述共指实体集合;
对所述待扩写文本进行实体识别,得到所述第一实体;
根据所述第一实体在所述共指实体集合中匹配得到所述第一共指实体组。
5.根据权利要求4所述的方法,其特征在于,所述获取所述共指实体集合之前,所述方法还包括:
获取第二样本扩写文本数据集,所述第二样本扩写文本数据集中的第二样本扩写文本数据包括历史扩写文本中的输入文本和对应的输出文本;
获取各个第二样本扩写文本数据中的实体的共现频率;
根据所述共现频率和频率阈值获取共指实体组,组成所述共指实体集合。
6.根据权利要求1所述的方法,其特征在于,所述根据所述待扩写文本和所述第一共指实体组获取待扩写修改文本,包括:
将所述第一共指实体组中的全部实体插入到所述待扩写文本中替换所述第一实体,形成所述待扩写修改文本。
7.根据权利要求2所述的方法,其特征在于,所述根据所述待扩写修改文本和文本扩写模型的模型参数获取生成概率、复制概率和生成权重,包括;
采用所述文本扩写模型对所述待扩写修改文本进行编码并基于编码结果得到解码数据,所述解码数据包括解码器隐藏序列、上下文向量和注意力向量;
根据注意力向量获取所述复制概率;
根据所述解码器隐藏序列、所述上下文向量和所述生成概率参数获取所述生成概率;
根据所述解码器隐藏序列、所述上下文向量、所述待扩写修改文本的词向量和所述激活函数参数组获取所述生成权重。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京京东尚科信息技术有限公司,未经北京京东尚科信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210190634.2/1.html,转载请声明来源钻瓜专利网。
- 上一篇:肉桂基氯化钯二聚体的制备方法
- 下一篇:一种SMD电子元件的处理工艺