[发明专利]语句翻译方法和装置、存储介质及电子装置有效
申请号: | 201910819098.6 | 申请日: | 2019-08-30 |
公开(公告)号: | CN110795947B | 公开(公告)日: | 2023-07-14 |
发明(设计)人: | 林炳怀;王丽园 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | G06F40/58 | 分类号: | G06F40/58;G06F40/51;G06N3/084;G06N3/096;G06N3/0985 |
代理公司: | 北京康信知识产权代理有限责任公司 11240 | 代理人: | 张学渊 |
地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 语句 翻译 方法 装置 存储 介质 电子 | ||
1.一种语句翻译方法,其特征在于,包括:
获取使用目标帐号的客户端反馈的翻译校正请求,其中,所述翻译校正请求用于请求对第一翻译结果进行校正,所述第一翻译结果是通过第一翻译模型对待翻译的对象数据进行翻译后得到的结果;
响应所述翻译校正请求,获取翻译约束参数;将所述翻译约束参数作为增量学习模型的超参数,利用所述增量学习模型对所述第一翻译模型中的第一参数向量进行调整,得到第二翻译模型中的第二参数向量,其中,所述翻译约束参数用于约束所述第一翻译模型中的第一参数向量与所述第二翻译模型中的第二参数向量之间的差异,所述翻译约束参数越大,允许所述增量学习模型输出的参数向量相对于所述第一参数向量的差异越大;
获取通过所述第二翻译模型对所述对象数据进行翻译后得到的第二翻译结果;
向使用所述目标帐号的客户端推送所述第二翻译结果。
2.根据权利要求1所述的方法,其特征在于,所述将所述翻译约束参数作为所述增量学习模型的超参数,利用所述增量学习模型对所述第一翻译模型中的第一参数向量进行调整,得到所述第二翻译模型中的所述第二参数向量包括:
将所述第一参数向量输入所述增量学习模型,其中,所述增量学习模型用于通过对所述第一参数向量进行增量学习得到所述第二参数向量;
在所述增量学习模型的输出结果达到目标条件的情况下,确定所述增量学习模型当前输出的参数向量为所述第二参数向量。
3.根据权利要求2所述的方法,其特征在于,所述将所述第一参数向量输入所述增量学习模型,在所述增量学习模型的输出结果达到目标条件的情况下,确定所述增量学习模型当前输出的参数向量为所述第二参数向量,包括:
将所述第一参数向量作为所述增量学习模型的输入,得到所述增量学习模型的第一输出,完成第一次迭代;
将第N-1输出和所述第一参数向量作为所述增量学习模型的输入,得到所述增量学习模型的第N输出,完成第N次迭代,其中,所述N为大于2的正整数;
在所述第N输出的第三参数向量对应的第三翻译模型的交叉损失熵符合所述目标条件,停止所述迭代,并将所述第三参数向量作为所述第二参数向量,其中,所述第三翻译模型的交叉损失熵为模型预测结果与真实翻译结果之间的交叉损失熵,所述模型预测结果为所述第三翻译模型对待翻译语句的翻译结果,所述真实翻译结果为与所述待翻译语句对应的目标翻译结果。
4.根据权利要求3所述的方法,其特征在于,所述增量学习模型包括:
其中,所述θ0为所述第一翻译模型的第一参数向量,所述C为所述翻译约束参数,所述λ为超参数,所述θt为t时刻所述增量学习模型输出的参数向量,所述θt-1为t-1时刻所述增量学习模型输出的参数向量,Δθt为参数θ在t时刻的变化向量,|Δθt|为所述变化向量的大小。
5.根据权利要求3所述的方法,其特征在于,通过以下方式确定所述待翻译语句:
将所述第一翻译模型未能正确翻译的坏语料中的语句作为所述待翻译语句。
6.根据权利要求3所述的方法,其特征在于,通过以下方式确定所述待翻译语句:
获取用于训练所述第一翻译模型的原始训练语料,以及所述第一翻译模型未能正确翻译的坏语料,将所述原始训练语料和所述坏语料中的语句作为所述待翻译语句。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910819098.6/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种基于卷积神经网络的多语种互译方法及系统
- 下一篇:法律文件翻译对照装置