[发明专利]一种模型训练方法、装置、计算机设备及存储介质在审
申请号: | 202011265626.7 | 申请日: | 2020-11-12 |
公开(公告)号: | CN112257471A | 公开(公告)日: | 2021-01-22 |
发明(设计)人: | 王星;郝永昌;焦文祥;涂兆鹏 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | G06F40/58 | 分类号: | G06F40/58 |
代理公司: | 广州三环专利商标代理有限公司 44202 | 代理人: | 熊永强;杜维 |
地址: | 518057 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 模型 训练 方法 装置 计算机 设备 存储 介质 | ||
本申请提出一种模型训练方法、装置、计算机设备及存储介质。该方法包括:获取用于模型训练的样本文本;调用样本多任务翻译模型,样本多任务翻译模型包括样本编码器、第一样本解码器以及第二样本解码器;基于样本编码器对样本文本进行编码处理,得到样本文本的文本特征;基于第一样本解码器对文本特征进行解码处理,得到样本文本的第一预测文本,以及基于第二样本解码器对文本特征进行解码处理,得到样本文本的第二预测文本;根据样本文本、第一预测文本以及第二预测文本训练样本多任务翻译模型,得到多任务翻译模型。通过训练多任务翻译模型,可以提高模型翻译的准确性。
技术领域
本申请涉及互联网技术领域,尤其涉及一种模型训练方法、装置、计算机设备及存储介质。
背景技术
随着深度学习的不断发展与演化,神经网络模型已经被广泛应用于自然语言处理、语音识别,甚至计算机视觉等领域,诸如神经网络机器翻译,自然语言理解,自动语音识别、目标检测等实际应用中被广泛应用。
神经网络模型应用于神经网络机器翻译中,主要包括自回归翻译模型以及非自回归翻译模型,其中,自回归翻译模型具体可以包括Transformer模型,非自回归翻译模型具体可以包括Mask-Predict模型。自回归翻译模型在翻译时译文是按照一定顺序逐字生成的;非自回归翻译模型在翻译时译文是同时生成的。
现有技术中,自回归翻译模型(或者非自回归翻译模型)均包括一个编码器和一个解码器,训练回归翻译模型(或者非自回归翻译模型)时,均是基于一个编码器和一个解码器进行训练,模型结构单一,模型学习到的翻译能力有限,因此训练出来的模型翻译精准度不高。
发明内容
本申请实施例提出了一种模型训练方法、装置、计算机设备以及存储介质,通过训练多任务翻译模型,可以提高模型翻译的准确性。
本申请实施例一方面提供一种模型训练方法,该方法具体包括:
获取用于模型训练的样本文本;
调用样本多任务翻译模型,所述样本多任务翻译模型包括样本编码器、第一样本解码器以及第二样本解码器;
基于所述样本编码器对所述样本文本进行编码处理,得到所述样本文本的文本特征;
基于所述第一样本解码器对所述文本特征进行解码处理,得到所述样本文本的第一预测文本,以及基于所述第二样本解码器对所述文本特征进行解码处理,得到所述样本文本的第二预测文本;
根据所述样本文本、所述第一预测文本以及所述第二预测文本训练所述样本多任务翻译模型,得到多任务翻译模型。
本申请一方面提供一种模型训练装置,该装置具有实现上述的模型训练方法的功能。所述功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括:
获取单元,用于获取用于模型训练的样本文本;
调用单元,用于调用样本多任务翻译模型,所述样本多任务翻译模型包括样本编码器、第一样本解码器以及第二样本解码器;
编码单元,用于基于所述样本编码器对所述样本文本进行编码处理,得到所述样本文本的文本特征;
解码单元,用于基于所述第一样本解码器对所述文本特征进行解码处理,得到所述样本文本的第一预测文本,以及基于所述第二样本解码器对所述文本特征进行解码处理,得到所述样本文本的第二预测文本;
训练单元,用于根据所述样本文本、所述第一预测文本以及所述第二预测文本训练所述样本多任务翻译模型,得到多任务翻译模型。
本申请实施例一方面提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述各实施例中的方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011265626.7/2.html,转载请声明来源钻瓜专利网。