[发明专利]生成用于自动聊天的问题-答案对在审
申请号: | 201780049767.5 | 申请日: | 2017-04-27 |
公开(公告)号: | CN109564572A | 公开(公告)日: | 2019-04-02 |
发明(设计)人: | 吴先超 | 申请(专利权)人: | 微软技术许可有限责任公司 |
主分类号: | G06F16/332 | 分类号: | G06F16/332 |
代理公司: | 永新专利商标代理有限公司 72002 | 代理人: | 张立达;王英 |
地址: | 美国华*** | 国省代码: | 美国;US |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 聊天 方法和装置 答案 纯文本 学习 | ||
1.一种生成用于自动聊天的问题-答案(QA)对的方法,包括:
获得纯文本;
通过深度学习模型,基于所述纯文本来确定问题;以及
基于所述问题和所述纯文本来形成QA对。
2.根据权利要求1所述的方法,其中,
所述深度学习模型包括学习排序(LTR)模型,并且
所述LTR模型用于通过词语匹配和潜在语义匹配中的至少一个来计算所述纯文本与参考QA对之间的相似度分值。
3.根据权利要求2所述的方法,其中,所述相似度分值是通过以下操作来计算的:
计算所述纯文本与所述参考QA对中的参考问题之间的第一匹配分值;
计算所述纯文本与所述参考QA对中的参考答案之间的第二匹配分值;以及
组合所述第一匹配分值和所述第二匹配分值以获得所述相似度分值。
4.根据权利要求3所述的方法,其中,所述第一匹配分值和所述第二匹配分值是通过梯度提升决策树(GBDT)来计算的。
5.根据权利要求1所述的方法,其中,所述深度学习模型包括学习排序(LTR)模型,并且所述确定所述问题包括:
通过所述LTR模型来计算多个参考QA对相比于所述纯文本的相似度分值;以及
选择具有最高相似度分值的参考QA对中的参考问题作为所述问题。
6.根据权利要求1所述的方法,其中,
所述深度学习模型包括神经机器翻译(NMT)模型,并且
所述NMT模型用于以序列-到-序列的方式基于所述纯文本来生成所述问题,所述纯文本作为输入序列,所述问题作为输出序列。
7.根据权利要求6所述的方法,其中,所述NMT模型包括用于确定所述问题的模式的关注机制。
8.根据权利要求6所述的方法,其中,所述NMT模型包括以下至少之一:
用于为所述输入序列中的每个词语获得上下文信息的第一递归处理;以及
用于为所述输出序列中的每个词语获得上下文信息的第二递归处理。
9.根据权利要求1所述的方法,其中,
所述深度学习模型包括动态记忆网络(DMN)模型,并且
所述DMN模型用于通过捕获所述纯文本中的潜在语义关系来基于所述纯文本生成所述问题。
10.根据权利要求9所述的方法,其中,
所述深度学习模型包括学习排序(LTR)模型,并且
所述DMN模型包括关注机制,所述关注机制将至少一个候选问题作为输入,所述至少一个候选问题是由所述LTR模型基于所述纯文本来确定的。
11.根据权利要求9所述的方法,其中,
所述深度学习模型包括神经机器翻译(NMT)模型,并且
所述DMN模型包括关注机制,所述关注机制将参考问题作为输入,所述参考问题是由所述NMT模型基于所述纯文本来确定的。
12.根据权利要求9所述的方法,其中,
所述深度学习模型包括学习排序(LTR)模型和神经机器翻译(NMT)模型,并且
所述DMN模型至少基于至少一个候选问题和/或参考问题来计算记忆向量,所述至少一个候选问题是由所述LTR模型基于所述纯文本来确定的,所述参考问题是由所述NMT模型基于所述纯文本来确定的。
13.一种生成用于自动聊天的问题-答案(QA)对的装置,包括:
纯文本获得模块,用于获得纯文本;
问题确定模块,用于通过深度学习模型,基于所述纯文本来确定问题;以及
QA对形成模块,用于基于所述问题和所述纯文本来形成QA对。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于微软技术许可有限责任公司,未经微软技术许可有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201780049767.5/1.html,转载请声明来源钻瓜专利网。