[发明专利]神经网络模型的分布式训练方法、装置及电子设备有效
申请号: | 201911403480.5 | 申请日: | 2019-12-30 |
公开(公告)号: | CN111160531B | 公开(公告)日: | 2023-09-22 |
发明(设计)人: | 户忠哲;谭光明;姚成吉;田忠博;朱泓睿;张晓扬;肖俊敏 | 申请(专利权)人: | 北京迈格威科技有限公司 |
主分类号: | G06N3/0464 | 分类号: | G06N3/0464;G06N3/084 |
代理公司: | 北京超凡宏宇知识产权代理有限公司 11463 | 代理人: | 何少岩 |
地址: | 100000 北京市海淀区科*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 模型 分布式 训练 方法 装置 电子设备 | ||
1.一种神经网络模型的分布式训练方法,其特征在于,所述方法由分布式计算系统执行,所述分布式计算系统包括多个GPU,所述方法包括:
从所述分布式计算系统确定出第一数量的GPU作为第一目标GPU;
基于训练样本集,通过所述第一目标GPU对初始神经网络模型进行迭代训练,直至达到预设的第一迭代次数,得到中间神经网络模型;
从所述分布式计算系统确定出第二数量的GPU作为第二目标GPU;
通过所述第二目标GPU对所述中间神经网络模型进行迭代训练,直至达到预设的第二迭代次数,得到最终神经网络模型;其中,所述第二数量大于所述第一数量,和/或,所述第二目标GPU单次迭代处理的训练样本数量大于所述第一目标GPU单次迭代处理的训练样本数量。
2.根据权利要求1所述的方法,其特征在于,基于训练样本集,通过所述第一目标GPU对所述初始神经网络模型进行迭代训练,直至达到预设的第一迭代次数的步骤,包括:
在对所述初始神经网络模型进行迭代训练时,采用所述第一目标GPU对所述训练样本集进行数据并行处理,在预设迭代次数内将所述初始神经网络模型的初始学习率调整至预设的最大学习率;其中所述预设迭代次数小于所述第一迭代次数;
继续对所述初始神经网络模型进行迭代训练,并使所述初始神经网络模型在迭代训练中保持所述预设的最大学习率不变,直至达到预设的第一迭代次数。
3.根据权利要求1所述的方法,其特征在于,所述通过所述第二目标GPU对所述中间神经网络模型进行迭代训练,直至达到预设的第二迭代次数的步骤,包括:
根据预设的等效衰减学习率算法确定所述中间神经网络模型的第一学习率;
采用第二目标GPU对所述训练样本集进行数据并行处理,并使所述中间神经网络模型基于所述中间神经网络模型的第一学习率和预设的学习率衰减算法进行迭代训练,直至达到预设的第二迭代次数。
4.根据权利要求3所述的方法,其特征在于,所述第二目标GPU单次迭代处理的训练样本数量大于所述第一目标GPU单次迭代处理的训练样本数量;
所述根据预设的等效衰减学习率算法确定所述中间神经网络模型的第一学习率的步骤,包括:
根据预设有效学习率计算算式及所述第二目标GPU单次迭代处理的训练样本数量与所述第一目标GPU单次迭代处理的训练样本数量之间的数量关系,确定所述中间神经网络模型的中间学习率;
利用所述预设的学习率衰减算法对所述中间学习率进行衰减,得到第一衰减学习率;
判断所述第一衰减学习率是否大于所述中间神经网络模型预设的最大学习率;
如果否,将所述第一衰减学习率作为所述中间神经网络模型的第一学习率。
5.根据权利要求4所述的方法,其特征在于,所述中间神经网络模型包括带有BN层的卷积层;所述中间神经网络模型的中间学习率包括所述中间神经网络模型各网络层的中间学习率;
所述预设有效学习率计算算式为:
其中,为所述带有BN层的卷积层的有效学习率,η为学习率,α1和α2为人为设定的缩放因子,Bt为单次迭代处理的训练样本数量,为第l层网络层的权重的二范数,与所述中间神经网络模型的权重衰减系数成反比。
6.根据权利要求4所述的方法,其特征在于,所述中间神经网络模型包括不带有BN层的全连接层;所述中间神经网络模型的中间学习率包括所述中间神经网络模型各网络层的中间学习率;
所述预设有效学习率计算算式为:
其中,为所述不带有BN层的全连接层的有效学习率,η为学习率,α1和α2为人为设定的缩放因子,Bt为单次迭代处理的训练样本数量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京迈格威科技有限公司,未经北京迈格威科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911403480.5/1.html,转载请声明来源钻瓜专利网。