[发明专利]基于上下文的对话生成方法及系统有效
申请号: | 202011090073.6 | 申请日: | 2020-10-13 |
公开(公告)号: | CN112328756B | 公开(公告)日: | 2022-10-14 |
发明(设计)人: | 解福;刘悦;刘凤鸣;于凤洋;徐传杰 | 申请(专利权)人: | 山东师范大学 |
主分类号: | G06F16/332 | 分类号: | G06F16/332;G06F40/211;G06N3/04;G06N3/08;G06K9/62 |
代理公司: | 济南圣达知识产权代理有限公司 37221 | 代理人: | 黄海丽 |
地址: | 250014 山*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 上下文 对话 生成 方法 系统 | ||
1.基于上下文的对话生成方法,其特征是,包括:
获取当前对话语句、当前对话的上文语句和当前对话的下文语句;
将当前对话语句、当前对话的上文语句和当前对话的下文语句,输入到预先训练好的编解码器中,编解码器输出当前对话语句的预测对话语句;具体步骤包括:
将当前对话语句、当前对话的上文语句和当前对话的下文语句,输入到预先训练好的编解码器的编码器中,编码器对当前对话语句、当前对话的上文语句和当前对话的下文语句分别进行特征提取,编码器对提取的特征进行编码处理得到编码结果;编解码器的解码器对编码结果进行解码处理,得到当前对话语句的预测对话语句;
所述编码器,包括:
第一递归神经网络GRU、第二递归神经网络GRU、第三递归神经网络GRU、第一隐藏层、第二隐藏层、第三隐藏层和特征融合层;
第一递归神经网络GRU,用于对当前对话的上文语句进行特征向量提取得到上文语句特征向量;上文语句特征向量输入到第一隐藏层进行处理,第一隐藏层输出第一特征向量;第一隐藏层将处理后的结果输入到第二隐藏层,作为第二隐藏层的输入值;
第二递归神经网络GRU,用于对当前对话的下文语句进行特征向量提取得到下文语句特征向量;下文语句特征向量和第一隐藏层将处理后的结果,均输入到第二隐藏层中进行处理,第二隐藏层输出第二特征向量;第二隐藏层将处理后的结果输入到第三隐藏层,作为第三隐藏层的输入值;
第三递归神经网络GRU,用于对当前对话语句进行特征向量提取得到当前对话语句特征向量;当前对话语句特征向量和第二隐藏层将处理后的结果,均输入到第三隐藏层中,第三隐藏层输出第三特征向量;
将第一特征向量、第二特征向量和第三特征向量输入到特征融合层中进行加权融合,输出融合后的特征,融合后的特征作为编码器的输出值,送入解码器中,解码器通过解码处理输出得到当前对话语句的预测对话语句;
所述加权融合中,权重的获取步骤为:
计算第一特征向量与第三特征向量之间的第一互信息;基于第一互信息,并依照注意力机制应用softmax函数执行平滑归一化,计算出第一特征向量的权重;
计算第二特征向量与第三特征向量之间的第二互信息;基于第二互信息,并依照注意力机制应用softmax函数,计算出第二特征向量的权重;
将第二特征向量与第三特征向量之间的第二互信息,输入注意力机制原则下的softmax函数,计算出第三特征向量的权重。
2.如权利要求1所述的方法,其特征是,所述融合,包括拼接融合或/和加和融合。
3.如权利要求1所述的方法,其特征是,所述预先训练好的编解码器,训练步骤包括:
构建彼此连接的编码器和解码器;
构建训练集,所述训练集包括已知当前对话,已知当前对话的下一句对话,已知当前对话的上文语句和已知当前对话的下文语句;
将已知当前对话、已知当前对话的上文语句和已知当前对话的下文语句,均输入到编码中,将已知当前对话的下一句对话作为解码器的输出值;对编码器和解码器进行训练,得到训练好的编解码器。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山东师范大学,未经山东师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011090073.6/1.html,转载请声明来源钻瓜专利网。
- 上一篇:列车联挂方法和装置以及列车解编方法
- 下一篇:纯水洗膜系统