[发明专利]对话生成模型的训练方法和装置有效
申请号: | 201810713549.3 | 申请日: | 2018-06-29 |
公开(公告)号: | CN108984679B | 公开(公告)日: | 2022-05-10 |
发明(设计)人: | 连荣忠;彭金华;马宗阳;姜迪;何径舟 | 申请(专利权)人: | 北京百度网讯科技有限公司 |
主分类号: | G06F16/332 | 分类号: | G06F16/332;G06F40/205;G06F40/289 |
代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 宋合成 |
地址: | 100085 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 对话 生成 模型 训练 方法 装置 | ||
本发明提出一种对话生成模型的训练方法和装置,其中,方法包括:获取对话生成模型根据对话上文生成的目标回复,对目标回复和对话上文之间的语言连贯性进行评价,得到评价信息,根据评价信息,对对话生成模型进行训练。通过连贯性模型对目标回复和对话上文进行连贯性评价,根据该评价信息调整模型训练的参数,以使得训练完成的对话生成模型生成的目标回复和上文具有连贯性,且兼顾生成效率,解决现有技术中生成的对话回复与上文没有连贯性,生成效率低下的技术问题。
技术领域
本发明涉及人工智能技术领域,尤其涉及一种对话生成模型的训练方法和装置。
背景技术
通用对话系统作为人工智能的重要场景,得到越来越多的关注,通用对话系统通过人机交互以一问一答的方式为用户智能提供信息服务,因此,对话的生成是一个重要环节。
目前采用最多的是自然语言生成技术,但是自然语言生成技术至少存在两种方式。一种方式是在生成的过程中加入关键词进行辅助,或者采用最大互信息(MaximumMutual Information,MMI)的方法对生成结果进行筛选。但是这种方式由于从问话中提取关键词是很难实现,而采用最大互信息会上千倍的增加处理时间,效率较低。另一种方式采用的是对抗生成的方式,但这样方式导致生成的回复往往与对话上文缺乏关联性,对话不连贯。
因此,在对话生成的人工智能领域,需要能提供一种能兼顾生成效率,以及连贯性的方法。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种对话生成模型的训练方法,以实现通过连贯性模型对目标回复和对话上文进行连贯性评价,根据该评价信息调整对话生成模型训练的参数,以使得训练完成的对话生成模型生成的回复和上文具有较好的连贯性,同时无需关键词,生成效率较高。
本发明的第二个目的在于提出一种对话生成模型的训练装置。
本发明的第三个目的在于提出一种计算机设备。
本发明的第四个目的在于提出一种非临时性计算机可读存储介质。
本发明的第五个目的在于提出一种计算机程序产品。
为达上述目的,本发明第一方面实施例提出了一种对话生成模型的训练方法,包括:
获取对话生成模型根据对话上文生成的目标回复;
对所述目标回复和所述对话上文之间的语言连贯性进行评价,得到评价信息;
根据所述评价信息,对所述对话生成模型进行训练。
为达上述目的,本发明第二方面实施例提出了一种对话生成模型的训练装置,包括:
获取模块,用于获取对话生成模型根据对话上文生成的目标回复;
处理模块,用于对所述目标回复和所述对话上文之间的语言连贯性进行评价,得到评价信息;
训练模块,用于根据所述评价信息,对所述对话生成模型进行训练。
为达上述目的,本发明第三方面实施例提出了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如第一方面所述的对话生成模型的训练方法。
为了实现上述目的,本发明第四方面实施例提出了一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时,实现如第一方面所述的对话生成模型的训练方法。
为了实现上述目的,本发明第五方面实施例提出了一种计算机程序产品,当计算机程序产品中的指令由处理器执行时,实现如第一方面所述的对话生成模型的训练方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京百度网讯科技有限公司,未经北京百度网讯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810713549.3/2.html,转载请声明来源钻瓜专利网。