[发明专利]自然语言生成训练方法和装置有效
申请号: | 202010331089.5 | 申请日: | 2020-04-23 |
公开(公告)号: | CN111553173B | 公开(公告)日: | 2023-09-15 |
发明(设计)人: | 俞凯;刘奇;马娆 | 申请(专利权)人: | 思必驰科技股份有限公司 |
主分类号: | G06F40/56 | 分类号: | G06F40/56;G06N3/0442;G06N3/088;G06F18/23213 |
代理公司: | 北京商专永信知识产权代理事务所(普通合伙) 11400 | 代理人: | 黄谦;邓婷婷 |
地址: | 215123 江苏省苏州市苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 自然语言 生成 训练 方法 装置 | ||
本发明公开一种自然语言生成训练方法和装置,其中,方法包括:通过k中心聚类算法从训练数据中提取控制向量;将所述训练数据和所提取的控制向量输入至语言模型中;使用句子级别标准训练所述语言模型。本申请实施例提出了两种新颖的方法来通过简单的LSTM网络结构来提高自然语言生成的性能。首先是控制向量,它是从参考序列中无监督地提取出来的。控制向量可以帮助模型获得先验知识并缩小生成空间。第二个是策略梯度训练,它可以直接按所需标准训练模型。我们还重新制定了MDP生成自然语言的方式。在不同数据集上的实验结果表明,所提出的方法可以显着提高生成性能。
技术领域
本发明属于智能对话技术领域,尤其涉及自然语言生成训练方法和装置。
背景技术
自然语言生成是一个重要而又具有挑战性的问题。LSTM(长短时记忆神经网络)语言模型被广泛用于自然语言生成。
现有技术中,存在类似于使用强化学习与主题模型进行强条件自然语言生成的方案。类似使用强化学习直接训练模型。并从输入中提取主题模型,以提高生成性能。
发明人在实现本申请的过程中发现,这类技术主要针对机器翻译等强条件自然语言生成。上述方案并不适用于弱条件自然语言生成。发明人还发现,LSTM语言模型的训练标准是单词级别的交叉熵,这可能会导致暴露偏差问题。交叉熵和最终测试指标如BLEU(双语评估研究,是一种广泛使用的衡量生成效果的量化方法)或单词错误率之间也不匹配。
发明内容
本发明实施例提供一种自然语言生成训练方法及装置,用于至少解决上述技术问题之一。
第一方面,本发明实施例提供一种自然语言生成训练方法,包括:通过k中心聚类算法从训练数据中提取控制向量;将所述训练数据和所提取的控制向量输入至语言模型中;以及使用句子级别标准训练所述语言模型。
第二方面,本发明实施例提供一种自然语言生成训练的方法,包括:K中心聚类模块,配置为通过k中心聚类算法从训练数据中提取控制向量;输入模块,配置为将所述训练数据和所提取的控制向量输入至语言模型中;以及训练模块,配置为使用句子级别标准训练所述语言模型。
第三方面,提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例的自然语言生成训练方法的步骤。
第四方面,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行本发明任一实施例的自然语言生成训练方法的步骤。
本申请的方法和装置提供的方案提出了两种新颖的方法来通过简单的LSTM网络结构来提高自然语言生成的性能。首先是控制向量,它是从参考序列中无监督地提取出来的。控制向量可以帮助模型获得先验知识并缩小生成空间。第二个是策略梯度训练,它可以直接按所需标准训练模型。我们还重新制定了MDP生成自然语言的方式。在不同数据集上的实验结果表明,所提出的方法可以显着提高生成性能。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的一种自然语言生成训练方法的流程图;
图2为本发明一实施例提供的一具体实施例的用于提取和用于训练的流程图;
图3为本发明一实施例提供的一具体实施例的基线和策略梯度培训的差异;
图4为本发明一实施例提供的一具体实施例的不同K值的实验结果;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于思必驰科技股份有限公司,未经思必驰科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010331089.5/2.html,转载请声明来源钻瓜专利网。