[发明专利]基于循环卷积注意力模型的文本生成方法及装置有效
申请号: | 201811389085.1 | 申请日: | 2018-11-21 |
公开(公告)号: | CN109543165B | 公开(公告)日: | 2022-09-23 |
发明(设计)人: | 袁江林;郭志刚;魏晗;陈刚;席耀一;唐永旺 | 申请(专利权)人: | 中国人民解放军战略支援部队信息工程大学 |
主分类号: | G06F40/166 | 分类号: | G06F40/166;G06N3/04;G06N3/08 |
代理公司: | 郑州大通专利商标代理有限公司 41111 | 代理人: | 周艳巧 |
地址: | 450000 河*** | 国省代码: | 河南;41 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明属于计算机应用技术领域,特别涉及一种基于循环卷积注意力模型的文本生成方法及装置,该方法包含:采集互联网文本数据作为样本数据库;将样本数据库作为循环卷积注意力模型的输入和输出,训练循环卷积注意力模型,其中,循环卷积注意力模型包含长短期记忆网络模块、注意力机制模块和循环卷积网络模块,长短期记忆网络模块包含若干个LSTM长短期记忆网络节点;将待处理文本主题输入到已训练好的循环卷积注意力模型中进行测试,将循环卷积注意力模型输出即为该待处理文本主题的生成文本。本发明降低LSTM模型中历史信息的衰弱特性;训练更加容易且训练耗费资源降低,使得产生的文本含有一定的主题信息。 | ||
搜索关键词: | 基于 循环 卷积 注意力 模型 文本 生成 方法 装置 | ||
【主权项】:
1.一种基于循环卷积注意力模型的文本生成方法,其特征在于,包含如下内容:采集互联网文本数据作为样本数据库,该样本数据库中包含文本主题及与文本主题对应的文本数据;将样本数据库作为循环卷积注意力模型的输入和输出,对循环卷积注意力模型进行训练,其循环卷积注意力模型中包含长短期记忆网络模块、注意力机制模块和循环卷积网络模块,长短期记忆网络模块包含若干个LSTM长短期记忆网络节点;将待处理文本主题输入到已训练好的循环卷积注意力模型中进行测试,将循环卷积注意力模型输出即为该待处理文本主题的生成文本。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军战略支援部队信息工程大学,未经中国人民解放军战略支援部队信息工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201811389085.1/,转载请声明来源钻瓜专利网。