[发明专利]故事生成模型训练方法、装置、设备及存储介质有效
申请号: | 202010209921.4 | 申请日: | 2020-03-23 |
公开(公告)号: | CN111414736B | 公开(公告)日: | 2022-05-20 |
发明(设计)人: | 王伟;李丕绩 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | G06F40/166 | 分类号: | G06F40/166;G06F40/289;G06F16/35 |
代理公司: | 北京三高永信知识产权代理有限责任公司 11138 | 代理人: | 祝亚男 |
地址: | 518057 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 故事 生成 模型 训练 方法 装置 设备 存储 介质 | ||
本申请实施例公开了一种故事生成模型训练方法、装置、设备及存储介质,属于自然语言处理领域。方法包括:获取第一样本提示文本、第一样本提示文本对应的第一故事文本和第一逻辑文本,第一逻辑文本用于指示第一故事文本的上下文逻辑关系;基于故事生成模型,生成第一样本提示文本对应的第二故事文本;基于逻辑生成模型,生成第二故事文本对应的第二逻辑文本;根据第一故事文本、第二故事文本、第一逻辑文本和第二逻辑文本,训练故事生成模型。由于在训练故事生成模型的过程中考虑到了生成的故事的逻辑性,从而提高了故事生成模型的准确性,使用该训练的故事生成模型生成的故事文本的逻辑性更好。
技术领域
本申请涉及自然语言处理领域,特别涉及一种故事生成模型训练方法、装置、设备及存储介质。
背景技术
随着人工智能技术和自然语言处理技术的发展,目前提出了一种故事文本生成方法,该方法通过获取用户输入的提示文本,基于故事生成模型,来生成该提示文本对应的故事文本,从而实现了智能编写故事的功能。但是采用上述故事生成模型生成的故事,存在逻辑性较差的问题,因此,如何提高故事生成模型的准确性,成为当前亟需解决的问题。
发明内容
本申请实施例提供了一种故事生成模型训练、装置、设备及存储介质,可以提高了故事生成模型的准确性。所述技术方案如下:
一方面,提供了一种故事生成模型训练方法,所述方法包括:
获取第一样本提示文本、所述第一样本提示文本对应的第一故事文本和第一逻辑文本,所述第一逻辑文本用于指示所述第一故事文本的上下文逻辑关系;
基于故事生成模型,生成所述第一样本提示文本对应的第二故事文本;
基于逻辑生成模型,生成所述第二故事文本对应的第二逻辑文本;
根据所述第一故事文本、所述第二故事文本、所述第一逻辑文本和所述第二逻辑文本,训练所述故事生成模型。
可选地,所述根据所述第一损失值和所述第二损失值,调整所述故事生成模型的模型参数,包括:
根据所述第二损失值的权重,对所述第二损失值进行加权处理,得到第三损失值,所述权重用于指示故事文本的上下文逻辑关系对所述故事文本的影响程度;
根据所述第一损失值和所述第三损失值,调整所述故事生成模型的模型参数。
可选地,所述获取所述第一样本提示文本对应的第一故事大纲文本,包括:
基于训练的故事大纲生成模型,生成所述第一样本提示文本对应的第一故事大纲文本。
可选地,所述基于训练的故事大纲生成模型,生成所述第一样本提示文本对应的第一故事大纲文本之前,所述方法还包括:
获取第二样本提示文本和所述第二样本提示文本对应的第二故事大纲文本;
基于所述故事大纲生成模型,生成所述第二样本提示文本对应的第三故事大纲文本;
根据所述第二故事大纲文本和所述第三故事大纲文本,训练所述故事大纲生成模型。
可选地,所述逻辑关键词包括:承接、转折、并列、时间中的至少一项。
另一方面,提供了一种故事文本生成方法,所述方法包括:
基于故事生成模型,生成任一提示文本对应的故事文本,所述故事生成模型采用如所述的故事生成模型训练方法训练得到。
另一方面,提供了一种故事生成模型训练装置,所述装置包括:
获取模块,用于获取第一样本提示文本、所述第一样本提示文本对应的第一故事文本和第一逻辑文本,所述第一逻辑文本用于指示所述第一故事文本的上下文逻辑关系;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010209921.4/2.html,转载请声明来源钻瓜专利网。