[发明专利]基于层级交互注意力的文本摘要方法有效
申请号: | 201910677195.6 | 申请日: | 2019-07-25 |
公开(公告)号: | CN110472238B | 公开(公告)日: | 2022-11-18 |
发明(设计)人: | 余正涛;周高峰;黄于欣;高盛祥;郭军军;王振晗 | 申请(专利权)人: | 昆明理工大学 |
主分类号: | G06F16/34 | 分类号: | G06F16/34;G06F40/211;G06F40/30;G06F16/35;G06N3/04;G06N3/08 |
代理公司: | 昆明人从众知识产权代理有限公司 53204 | 代理人: | 沈艳尼 |
地址: | 650093 云*** | 国省代码: | 云南;53 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明涉及基于层级交互注意力的文本摘要方法,属于自然语言处理技术领域。本发明通过层级交互注意力提取编码器不同层次的特征息来指导摘要的生成。同时为了避免因引入不同层次特征而带来的信息冗余问题,利用变分信息瓶颈压缩数据噪声。本发明针对生成式文本摘要,在基于注意力的编解码框架下,通过注意力机制提取编码器多层上下文信息来指导解码过程,同时通过引入变分信息瓶颈对信息进行约束,从而提高生成式文本摘要的质量。实验结果表明该方法能够显著改善编解码框架在生成式摘要任务上的性能。 | ||
搜索关键词: | 基于 层级 交互 注意力 文本 摘要 方法 | ||
【主权项】:
1.基于层级交互注意力的文本摘要方法,其特征在于:所述基于层级交互注意力的文本摘要方法的具体步骤如下:/nStep1、使用英文数据集Gigaword作为训练集,采用预处理脚本对数据集进行预处理得到训练集和开发集,每个训练样本包含一对输入文本和摘要句;/nStep2、编码器利用双向LSTM对训练集进行编码,层数设置为三层;/nStep3、解码器采用单向LSTM网络,输入待解码的句子计算各层上下文向量;/nStep4、对于多层编解码模型,编解码器包含多层LSTM,在每一层LSTM中计算上层与当前层之间的隐状态表征,从而将上层的上下文向量融合到当前层;/nStep5、将带有特征信息的各层上下文向量与当前层的输出进行拼接,得到当前层的解码器隐状态;/nStep6、融入不同层次的上下文信息会带来信息的冗余和噪声,利用变分信息瓶颈对数据进行压缩和去噪。/n
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于昆明理工大学,未经昆明理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910677195.6/,转载请声明来源钻瓜专利网。