[发明专利]一种增强语义相关性的文本摘要生成方法在审
申请号: | 201910981403.1 | 申请日: | 2019-10-16 |
公开(公告)号: | CN110765264A | 公开(公告)日: | 2020-02-07 |
发明(设计)人: | 刘博;申利彬 | 申请(专利权)人: | 北京工业大学 |
主分类号: | G06F16/34 | 分类号: | G06F16/34;G06F16/33;G06F16/36;G06F40/30;G06F40/247 |
代理公司: | 11203 北京思海天达知识产权代理有限公司 | 代理人: | 刘萍 |
地址: | 100124 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 向量 语义 模型生成 词向量 原文 预处理 文本 计算相似度 模型提取 特征表示 梯度计算 文本生成 文本语义 训练网络 摘要生成 去噪 中文 保证 | ||
1.一种增强语义相关性的文本摘要生成方法,其特征在于,包括以下步骤:
步骤1、获取相关需要生成摘要的文本数据,并进行文本数据处理;
步骤2、对处理好的文本,构建相关字典,每个词对应一个唯一id,设置词向量维度,随机初始化所有词向量;
步骤3、将需要做摘要的文章向量与预训练向量进行融合,然后送入Encoder端;
步骤4、Decoder端最终生成的摘要向量,与预训练摘要向量进行余弦相似度计算,构造Loss损失函数。
2.根据权利要求1所述的方法,其特征在于,步骤3具体包含以下步骤:
步骤3.1、统计文章和摘要的长度分布,选取分布在90%的文章和摘要的长度,以文章长度为m,摘要长度为n为例;
步骤3.2、获取文章与摘要对应的预训练词向量,词向量维度为N维;
步骤3.3、将文章输入模型Embedding层获取词向量,维度为N维;
步骤3.4、将模型得到的词向量与预训练词向量进行融合,融合方式为拼接,拼接后的词向量维度是2N;
步骤3.5、将拼接后的词向量送入全连接网络,将2N维词向量映射为N维。
3.根据权利要求2所述的方法,其特征在于,步骤4具体包含以下步骤:
步骤4.1、获取D ecoder端Softmax之前的语义向量,维度是N维
步骤4.2、将Decoder端的语义向量与摘要的预训练向量计算余弦相似度,计算公式为:
A为摘要语义向量,B为摘要预训练向量
步骤4.3、设计损失函数
Loss=-λsimilarity+cross_entropy
其中cross_entropy为摘要语义向量与摘要预训练向量的交叉熵,λ为超参数,通过获取cross_entropy与similarity的数量级,保证cross_entropy与similarity的数量级为同一数量级,确定参数λ的值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工业大学,未经北京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910981403.1/1.html,转载请声明来源钻瓜专利网。