[发明专利]一种基于生成对抗学习的机器翻译方法及装置在审
申请号: | 201810730868.5 | 申请日: | 2018-07-05 |
公开(公告)号: | CN110750997A | 公开(公告)日: | 2020-02-04 |
发明(设计)人: | 张春荣 | 申请(专利权)人: | 普天信息技术有限公司 |
主分类号: | G06F40/51 | 分类号: | G06F40/51;G06F40/58 |
代理公司: | 11002 北京路浩知识产权代理有限公司 | 代理人: | 王莹;李相雨 |
地址: | 100080 北京*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 交替迭代 机器翻译 评判标准 判别器 生成器 权重和 权重 预设 评判 随机分配 对抗 源语言 翻译 网络 学习 | ||
本发明提供了一种基于生成对抗学习的机器翻译方法及装置。方法包括:随机分配生成对抗网络中的生成器的权重和判别器的权重,其中,判别器选取客观评判标准BLEU作为评判的指标;交替迭代训练生成器的权重和判别器的权重;当客观评判标准BLEU的取值大于预设值或交替迭代训练的次数大于预设次数,则停止交替迭代训练;根据交替迭代训练后的生成器对源语言进行翻译。本发明的技术方案中加入客观评判标准BLEU作为评判机器翻译好坏的指标,确保机器翻译的结果更自然、准确和到位。
技术领域
本发明涉及计算机技术领域,具体涉及一种基于生成对抗学习的机器翻译方法及装置。
背景技术
机器翻译,又称为自动翻译,是利用计算机将一种自然语言(源语言)转换为另一种自然语言(目标语言)的过程。特别是随着深度学习技术的发展,机器翻译的准确率不断刷新。基于深度学习技术的神经机器翻译(NMT),采用seq2seq模型,基于“编码-解码”架构的end-to-end的深度学习翻译模型,把输入源语言句子转换成一个固定长度的隐向量,在堆叠一个多层的LSTM(Long Short Term Memory)来将隐向量解码成输出目标语言句子。但神经机器翻译还有很大的改进空间,神经机器翻译在训练时通常采用最大似然估计(MLE)原理,将机器生成的译文与人类对源语言的翻译进行匹配,但是不能确保机器翻译的结果比人类翻译的更自然、准确和到位。
生成对抗网络(GAN)是一种深度学习模型,包括两个子模型,一个生成模型,作为生成器G,用来生成与真实数据x极为相似的含有噪音z的数据;一个判别模型,作为判别器D,用来判别数据中哪些是真实数据x,哪些是G生成的伪数据。而生成对抗网络做的就是最大化判别器D,最小化生成器G。在训练的过程中,使得生成器产生的数据分布逼近真实数据的分布,欺骗判别器;判别器提升两个数据分布的判别能力。最终达到纳什均衡,使得判别器无法判断两个分布的真伪。生成对抗网络应用于机器翻译任务时,构造两个主要组成部分,生成器G和判别器D。生成器G的目标是生成出生成高质量的翻译,从而骗过判别器;判别器D的目标是区分生成器G生成的翻译结果与人类翻译结果。
但是,生成对抗网络只可以对已经生成的完整序列进行打分,因此而对一部分生成的序列,判别器D被训练为用于对整句生成结果进行评估打分,判别器D的打分对于生成序列中的每一个词都是同等的存在,要奖励就一起奖励,要惩罚就一起惩罚。以下面的英语翻译为中文为例,进行说明:
英文=[‘He’,‘is’,‘a’,‘student’,‘.’];
人类翻译real_answer=[‘他’,‘是’,‘一个’,‘学生’,‘。’];
生成器的翻译fake_answer=[‘他’,‘是’,‘一个’,‘老师’,‘。’];
判别器D能够轻易辨识后者回答是假的,必然会给出极低的得分,但是仔细对比真/假两个回答可以发现,其中词‘他’、‘是’、‘一个’和‘。’其实和真实样本的是一样的,其实并没有错,真正错误的是‘老师’这个词,判别器D判定生成器的翻译整体回答是假的,导致原本无辜的词项也要跟着一起接受低分判定的惩罚。
发明内容
针对现有技术中的缺陷,本发明提供一种基于生成对抗学习的机器翻译方法及装置,实现将判定力度进一步细化到词或者字符级别,保证机器翻译的结果更自然、准确和到位。
为实现上述目的,本发明提供以下技术方案:
一方面,本发明提供了一种基于生成对抗学习的机器翻译方法,包括:
随机分配生成对抗网络中的生成器的权重和判别器的权重,其中,判别器选取客观评判标准BLEU作为评判的指标;
交替迭代训练生成器的权重和判别器的权重;
当客观评判标准BLEU的取值大于预设值或交替迭代训练的次数大于预设次数,则停止交替迭代训练;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于普天信息技术有限公司,未经普天信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810730868.5/2.html,转载请声明来源钻瓜专利网。