[发明专利]机器翻译的方法、装置、电子设备、存储介质及翻译模型有效
申请号: | 201910498209.8 | 申请日: | 2019-06-10 |
公开(公告)号: | CN110427630B | 公开(公告)日: | 2023-10-13 |
发明(设计)人: | 肖滔;邢启洲;李健;张连毅;武卫东 | 申请(专利权)人: | 北京捷通华声科技股份有限公司 |
主分类号: | G06F40/58 | 分类号: | G06F40/58;G06F40/30;G06N3/0455;G06N3/048;G06N3/0464;G06N3/044;G06N3/08 |
代理公司: | 北京润泽恒知识产权代理有限公司 11319 | 代理人: | 莎日娜 |
地址: | 100193 北京市海淀区东北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 机器翻译 方法 装置 电子设备 存储 介质 翻译 模型 | ||
本申请提供了一种机器翻译方法、装置、电子设备、可读存储介质及深度级联神经网络翻译模型。以提高机器翻译的完整度、准确性和翻译效率。所述深度级联神经网络翻译模型包括:词向量生成单元、编码单元、解码单元、N个语义空间以及目标词生成单元,所述编码单元和所述解码单元分别包括N个级联的神经网络层,且与所述N个语义空间一一对应连接。
技术领域
本申请涉及机器翻译领域,尤其涉及一种机器翻译方法、装置、电子设备、可读存储介质及深度级联神经网络翻译模型。
背景技术
随着全球合作化交流的深化,语言翻译需求日益增加,人工翻译效率较低,且资源较少费用昂贵,并且随着互联网的出现和普及,数据量激增,企业纷纷成立机器翻译研究组,研发了基于互联网大数据的机器翻译系统,从而使机器翻译真正走向实用,满足了人们日常的翻译需求。
近年来,随着深度学习的研究取得较大进展,基于人工神经网络的机器翻译逐渐兴起。神经网络是一种强大的相关关系表征模型,在数据量足够和神经元数目够多的前提下,可以表征输入和输出之间的非常复杂的关系。常见的神经网络翻译模型,通常会使用编码-解码框架,也就是根据由多层神经网络构成的编码器、以及由多层神经网络构成的解码器而组成的框架。在机器翻译中,一般使用RNN神经网络及其变种。
目前的编码-解码框架中,编码和解码之间的唯一联系就是一个固定长度的语义向量,需要将整个序列的信息压缩进一个固定长度的向量中去,其中语义向量无法完全表达整个序列的信息,并且先输入的内容携带的信息会被后输入的内容携带的信息稀释或者覆盖掉,除此之外从源语言到目标语言的转换路径十分长,一部分有一一对应的字词,也需要经过复杂的计算才能得到,存在增加翻译复杂度和计算量,继而导致较差的翻译效果和较慢的翻译速度的问题。
发明内容
鉴于上述问题,本申请提供了一种机器翻译方法、装置、电子设备、可读存储介质及深度级联神经网络翻译模型,旨在解决现有技术中,编码-解码翻译框架中,存在的语言转换路径长、翻译信息容易丢失的问题。
本申请实施例公开了一种机器翻译方法,应用于深度级联神经网络翻译模型,所述深度级联神经网络翻译模型包括:词向量生成单元、编码单元、解码单元、N个语义空间以及目标词生成单元,所述编码单元和所述解码单元分别包括N个级联的神经网络层,且与所述N个语义空间一一对应连接;所述方法包括:
将待翻译的源语句输入所述词向量生成单元,得到初始源词向量;
将初始源词向量输入所述编码单元中的第一神经网络层,得到第一源词向量和第一语义向量;
依次取n从2至N-1,针对所述编码单元中的第n神经网络层,执行步骤:将第n-1源词向量输入所述编码单元中的第n神经网络层,得到第n源词向量和第n语义向量;
针对所述编码单元中的第N神经网络层,将第N-1源词向量输入所述编码单元中的第N神经网络层,得到第N语义向量;
根据所述N个语义空间中的第一语义空间,确定所述第一语义向量对应的语义向量;
将所述第一语义向量对应的语义向量输入所述解码单元中的第一神经网络层,得到第一目标词向量;
依次取n从2至N,针对所述解码单元中的第n神经网络层,执行步骤:根据所述语义空间中的第n语义空间,确定所述第n语义向量对应的语义向量;将所述第n语义向量对应的语义向量和所述第n-1目标词向量输入所述解码单元中的第n神经网络层,得到第n目标词向量;
将第N目标词向量输入所述目标词生成单元,得到目标语句。
可选地,针对所述编码单元中的每一个神经网络层,得到该神经网络层对应的语义向量,包括:
利用该神经网络层的隐藏层,对输入的源词向量进行运算,得到该神经网络层对应的语义向量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京捷通华声科技股份有限公司,未经北京捷通华声科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910498209.8/2.html,转载请声明来源钻瓜专利网。