[发明专利]一种基于transformer架构的对话生成方法有效
申请号: | 202010077900.1 | 申请日: | 2020-02-01 |
公开(公告)号: | CN111274362B | 公开(公告)日: | 2021-09-03 |
发明(设计)人: | 蔡贤涛;袁一鸣 | 申请(专利权)人: | 武汉大学 |
主分类号: | G06F16/33 | 分类号: | G06F16/33;G06F16/332;G06F40/30 |
代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 许莲英 |
地址: | 430072 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提出了一种基于transformer架构的对话生成方法,用于解决基于背景知识的对话生成问题,属于自然语言处理领域。其主要步骤为将对话上文以及背景知识输入到微调后的文本预训练模型,分别得到对应的向量化表示。做阅读理解任务,通过训练好的阅读理解模型得到背景知识符合当前语境的概率分布。做文本生成任务,根据概率最高的知识片段与对话上文的向量化表示通过多头注意力机制得到综合语义向量。根据综合语义向量结合复制机制生成回复。使用该方法可以生成具有信息量的、自然的、符合当前语境的回复。 | ||
搜索关键词: | 一种 基于 transformer 架构 对话 生成 方法 | ||
【主权项】:
暂无信息
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学,未经武汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/202010077900.1/,转载请声明来源钻瓜专利网。
- 上一篇:消防设施的集中监控巡检系统
- 下一篇:一种用于LED电子屏散热装置
- 基于Transformer+LSTM神经网络模型的商品销量预测方法及装置
- 一种基于Transformer模型自然场景文字识别方法
- 一种深度Transformer级联神经网络模型压缩算法
- 点云分割方法、系统、介质、计算机设备、终端及应用
- 基于Transformer的中文智能对话方法
- 一种基于改进Transformer模型的飞行器故障诊断方法和系统
- 一种基于Transformer模型的机器翻译模型优化方法
- 基于Transformer和增强交互型MPNN神经网络的小分子表示学习方法
- 基于U-Transformer多层次特征重构的异常检测方法及系统
- 基于EfficientDet和Transformer的航空图像中的飞机检测方法