[发明专利]一种分布式并行训练的方法和系统有效

专利信息
申请号: 201910736410.5 申请日: 2019-08-09
公开(公告)号: CN110503194B 公开(公告)日: 2022-05-24
发明(设计)人: 王晓飞 申请(专利权)人: 苏州浪潮智能科技有限公司
主分类号: G06N3/063 分类号: G06N3/063;G06N3/08;G06F13/40;G06F13/42
代理公司: 北京连和连知识产权代理有限公司 11278 代理人: 刘小峰
地址: 215100 江苏省苏州市吴*** 国省代码: 江苏;32
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明涉及了本发明基于上述目的提出了一种分布式并行训练的方法,包括以下步骤:执行多个GPU基于训练模型的训练以得到训练参数;根据训练参数的传输所需带宽确定GPU与CPU之间的第一总线的第一GPU数量阈值,并将该第一GPU数量阈值与GPU的数量进行比较;响应于GPU的数量大于第一GPU数量阈值,将GPU分组并计算每组GPU的训练参数之和;将各组的该训练参数之和通过第一总线上传至CPU,并根据CPU对全部训练参数之和计算的梯度平均值更新各GPU的训练模型。根据本发明的分布式并行训练的方法及系统优化了分布式并行训练,提高训练效率、节省深度学习训练时间并在一定程度上减轻CPU负担、增强深度学习效果。
搜索关键词: 一种 分布式 并行 训练 方法 系统
【主权项】:
1.一种分布式并行训练的方法,其特征在于,所述方法包括以下步骤:/n执行多个GPU基于训练模型的训练以得到训练参数;/n根据所述训练参数的传输所需带宽确定所述GPU与CPU之间的第一总线的第一GPU数量阈值,并将所述第一GPU数量阈值与所述GPU的数量进行比较;/n响应于所述GPU的数量大于所述第一GPU数量阈值,将所述GPU分组并计算每组GPU的训练参数之和;/n将各组的所述训练参数之和通过所述第一总线上传至CPU,并根据CPU对全部所述训练参数之和计算的梯度平均值更新各GPU的训练模型。/n
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州浪潮智能科技有限公司,未经苏州浪潮智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201910736410.5/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top