[发明专利]机器翻译方法及装置有效
申请号: | 201811109824.7 | 申请日: | 2018-09-21 |
公开(公告)号: | CN109446534B | 公开(公告)日: | 2020-07-31 |
发明(设计)人: | 孙茂松;刘洋;张嘉成;栾焕博;翟飞飞;许静芳 | 申请(专利权)人: | 清华大学;北京搜狗科技发展有限公司 |
主分类号: | G06F40/58 | 分类号: | G06F40/58;G06F40/56;G06N3/08 |
代理公司: | 北京路浩知识产权代理有限公司 11002 | 代理人: | 王莹;吴欢燕 |
地址: | 100084 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 机器翻译 方法 装置 | ||
1.一种机器翻译方法,其特征在于,包括:
将源语句前文的词向量输入至预先训练的上下文编码器,输出所述源语句前文的编码标识;
将源语句的词向量以及所述源语句前文的编码标识输入至预先训练的源语言编码器,获得所述源语句的编码标识;
将目标语句中已翻译的词向量、源语句前文的编码标识和源语句的编码标识输入至预先训练的解码器,获得目标语句中新翻译的词向量;
根据所述目标语句中新翻译的词向量获得对应的翻译结果;
其中,所述上下文编码器根据样本源语句前文的词向量以及样本源语句前文的编码标识训练而成;所述源语言编码器根据样本源语句的词向量、样本源语句前文的编码标识以及样本源语句的编码标识训练而成;所述解码器根据样本目标语句中已翻译的词向量、样本源语句前文的编码标识以及样本源语句的编码标识训练而成;
其中,所述上下文编码器由Nc个依次连接的上下文编码层构成,每个所述上下文编码层依次包括第一自注意力层和第一前向神经网络层;
相应地,所述将源语句前文的词向量输入至预先训练的上下文编码器,输出所述源语句前文的编码标识,具体为:
将源语句前文的词向量输入至第1个上下文编码层中的第一自注意力层,输出矩阵A(1);将所述矩阵A(1)输入至第1个上下文编码层中的第一前向神经网络层,输出矩阵C(1);
对于第n个上下文编码层,将矩阵C(n-1)输入至第n个上下文编码层中的第一自注意力层,输出矩阵A(n);将矩阵A(n) 输入至第n个上下文编码层中的第一前向神经网络层,输出矩阵C(n);满足1<n≤Nc;
将第Nc个上下文编码层的输出C(Nc)作为所述源语句前文的编码标识。
2.根据权利要求1所述的机器翻译方法,其特征在于,所述源语言编码器由Ns个依次连接的源语言编码层构成,每个所述源语言编码层依次包括第二自注意力层、第一上下文注意力层和第二前向神经网络层;
相应地,所述将源语句的词向量以及所述源语句前文的编码标识输入至预先训练的源语言编码器,获得所述源语句的编码标识;
将源语句的词向量输入至第1个源语言编码层中的第二自注意力层,输出矩阵B(1);将矩阵B(1)以及矩阵C(Nc)输入至第1个源语言编码层中的第一上下文注意力层,输出矩阵D(1);将矩阵D(1)输入至第1个源语言编码层中的第二前向神经网络层,输出矩阵S(1);
对于第m个源语言编码层,将矩阵S(m-1)输入至第m个源语言编码层中的第二自注意力层,输出矩阵B(m);将矩阵B(m)以及矩阵C(Nc)输入至第m个源语言编码层中的第一上下文注意力层,输出矩阵D(m);将矩阵D(m)输入至第m个源语言编码层中的第二前向神经网络层,输出矩阵S(m);满足1<m≤Ns;
将第Ns个源语言编码层的输出S(Ns)作为所述源语句的编码标识。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学;北京搜狗科技发展有限公司,未经清华大学;北京搜狗科技发展有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811109824.7/1.html,转载请声明来源钻瓜专利网。