[发明专利]对话生成模型的训练方法、对话生成方法及装置有效
申请号: | 201910713314.9 | 申请日: | 2019-08-02 |
公开(公告)号: | CN110457457B | 公开(公告)日: | 2023-09-22 |
发明(设计)人: | 李泽康;张金超;雷泽阳;孟凡东;周杰;牛成 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | G06F16/332 | 分类号: | G06F16/332;G06F16/33;G06F18/22;G06N3/045;G06N3/0475;G06N3/094 |
代理公司: | 北京三高永信知识产权代理有限责任公司 11138 | 代理人: | 邢少真 |
地址: | 518057 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本申请公开了一种对话生成模型的训练方法、对话生成方法及装置,涉及人工智能领域。该方法包括:通过对上下文样本进行编码得到第一隐层变量,对第一隐层变量识别得到先验隐层变量;对答复样本进行编码得到第二隐层变量;对答复相似样本进行编码得到第三隐层变量;根据第一隐层变量、第二隐层变量和第三隐层变量的混合高斯分布,识别得到后验隐层变量;匹配先验隐层变量和后验隐层变量,对对话生成模型进行对抗训练。该方法采用了样本集中的相似样本,通过相似样本的混合高斯分布来拟合对话生成模型的后验分布,达到了拟合更加复语义的目的,能够捕捉对话的复杂语义和高可变性。 | ||
搜索关键词: | 对话 生成 模型 训练 方法 装置 | ||
【主权项】:
1.一种对话生成模型的训练方法,其特征在于,所述方法包括:/n获取至少一组训练样本,每组训练样本包括上下文样本、答复样本和答复相似样本;/n对所述上下文样本进行编码得到第一隐层变量,对所述第一隐层变量识别得到先验隐层变量;/n对所述答复样本进行编码得到第二隐层变量;对所述答复相似样本进行编码得到第三隐层变量;根据所述第一隐层变量、所述第二隐层变量和所述第三隐层变量的混合高斯分布,识别得到后验隐层变量;/n匹配所述先验隐层变量和所述后验隐层变量,对所述对话生成模型进行对抗训练;/n其中,所述答复相似样本是根据所述答复样本的上下文采集得到的答复的相似样本;所述上下文样本是采集所述答复样本的上下文得到的。/n
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910713314.9/,转载请声明来源钻瓜专利网。
- 上一篇:一种聊天机器人应答方法和装置
- 下一篇:一种前台机器人的快递服务方法