[发明专利]机器翻译的方法、装置、电子设备、存储介质及翻译模型有效
申请号: | 201910498209.8 | 申请日: | 2019-06-10 |
公开(公告)号: | CN110427630B | 公开(公告)日: | 2023-10-13 |
发明(设计)人: | 肖滔;邢启洲;李健;张连毅;武卫东 | 申请(专利权)人: | 北京捷通华声科技股份有限公司 |
主分类号: | G06F40/58 | 分类号: | G06F40/58;G06F40/30;G06N3/0455;G06N3/048;G06N3/0464;G06N3/044;G06N3/08 |
代理公司: | 北京润泽恒知识产权代理有限公司 11319 | 代理人: | 莎日娜 |
地址: | 100193 北京市海淀区东北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 机器翻译 方法 装置 电子设备 存储 介质 翻译 模型 | ||
1.一种机器翻译的方法,其特征在于,应用于深度级联神经网络翻译模型,所述深度级联神经网络翻译模型包括:词向量生成单元、编码单元、解码单元、N个语义空间以及目标词生成单元,所述编码单元和所述解码单元分别包括N个级联的神经网络层,且与所述N个语义空间一一对应连接;所述方法包括:
将待翻译的源语句输入所述词向量生成单元,得到初始源词向量;
将初始源词向量输入所述编码单元中的第一神经网络层,得到第一源词向量和第一语义向量;
依次取n从2至N-1,针对所述编码单元中的第n神经网络层,执行步骤:将第n-1源词向量输入所述编码单元中的第n神经网络层,得到第n源词向量和第n语义向量;
针对所述编码单元中的第N神经网络层,将第N-1源词向量输入所述编码单元中的第N神经网络层,得到第N语义向量;
根据所述N个语义空间中的第一语义空间,确定所述第一语义向量对应的语义向量;
将所述第一语义向量对应的语义向量输入所述解码单元中的第一神经网络层,得到第一目标词向量;
依次取n从2至N,针对所述解码单元中的第n神经网络层,执行步骤:根据所述语义空间中的第n语义空间,确定所述第n语义向量对应的语义向量;将所述第n语义向量对应的语义向量和所述第n-1目标词向量输入所述解码单元中的第n神经网络层,得到第n目标词向量;
将第N目标词向量输入所述目标词生成单元,得到目标语句。
2.根据权利要求1所述的方法,其特征在于,针对所述编码单元中的每一个神经网络层,得到该神经网络层对应的语义向量,包括:
利用该神经网络层的隐藏层,对输入的源词向量进行运算,得到该神经网络层对应的语义向量。
3.根据权利要求1所述的方法,其特征在于,针对所述编码单元中的每一个神经网络层,该神经网络层对应的语义向量和源词向量,包括:
针对所述编码单元中的每一个神经网络层,对上一源词向量进行两种不同的运算,得到该神经网络层对应的语义向量和源词向量,且该神经网络层对应的语义向量和源词向量不同,其中,所述上一源词向量为该神经网络层的上一神经网络层对应的源词向量。
4.根据权利要求1所述的方法,其特征在于,针对所述编码单元中的每一个神经网络层,该神经网络层对应的语义向量和源词向量,包括:
针对所述编码单元中的每一个神经网络层,对上一源词向量进行相同的运算,得到该神经网络层对应的语义向量和源词向量,且该神经网络层对应的语义向量和源词向量相同,其中,所述上一源词向量为该神经网络层的上一神经网络层对应的源词向量。
5.根据权利要求1所述的方法,其特征在于,针对所述编码单元中的第n个神经网络层,得到该神经网络层对应的语义向量,包括:
获得所述解码单元中的第n神经网络层对应的第n目标词向量的特征信息;
对所述编码单元中的第n-1个神经网络层对应的第n-1源词向量中各向量赋予不同的权重系数;
将携带不同权重系数的第n-1源词向量输入所述编码单元中的第n神经网络层,得到携带权重系数的第n语义向量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京捷通华声科技股份有限公司,未经北京捷通华声科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910498209.8/1.html,转载请声明来源钻瓜专利网。