[发明专利]一种基于AllReduce分布式训练梯度压缩加速方法在审
申请号: | 202011504384.2 | 申请日: | 2020-12-17 |
公开(公告)号: | CN112529163A | 公开(公告)日: | 2021-03-19 |
发明(设计)人: | 谢远东;梁家恩 | 申请(专利权)人: | 云知声智能科技股份有限公司;厦门云知芯智能科技有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 100096 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 allreduce 分布式 训练 梯度 压缩 加速 方法 | ||
本发明涉及一种基于AllReduce分布式训练梯度压缩加速方法,针对Intra‑node将FP32转成FP16,并针对Inter‑node使用EF‑SGD方法压缩梯度,相对于稀疏方法损失降低,并且,通过AllReduce架构相对于Params Server通信结构消除了带宽瓶颈。
技术领域
本发明涉及深度学习技术领域,具体涉及一种基于AllReduce分布式训练梯度压缩加速方法。
背景技术
现有的基于参数服务器方式的中心化分布式训练方法,或者基于稀疏方法选取部分梯度值中存在一些问题,比如,基于稀疏的方法对梯度信息损失比较大;在intra-node和inter-node使用相同的梯度压缩方法,梯度信息损失进一步加大;Params Server通信结构相对于AllReduce本身具有带宽瓶颈。
发明内容
本发明提供一种基于AllReduce分布式训练梯度压缩加速方法,能够解决训练大型模型参数同步通信带宽问题。
本发明解决上述技术问题的技术方案如下:
根据本发明实施例的一个方面,提供一种基于AllReduce分布式训练梯度压缩加速方法,包括:采用AllReduce分布式深度梯度压缩训练架构,所述AllReduce分布式深度梯度压缩训练架构中,不存在参数服务器,工作机之间形成环形闭环传递路径,GPU之间传递压缩后梯度;以及将节点内压缩模块中将梯度从FP32转成FP16;并使用误差反馈随机梯度下降算法压缩梯度。
优选地,所述误差反馈随机梯度下降算法包括:针对每一次训练进行解压缩得到值pt。
优选地,所述误差反馈随机梯度下降算法还包括:使用梯度压缩算法对值pt进行梯度压缩。
优选地,值pt为pt=ηgt+et,其中,gt为随机梯度下降值,et为偏差值。
优选地,et初始值为0。
优选地,所述梯度压缩实施为:采用topk算法,取梯度前k个值pt进行数据整合。
优选地,所述误差反馈随机梯度下降算法还包括:更新参数:xt+1=xt-Δt,et+1=pt-Δt。
据本发明实施例的另一个方面,提供一种存储介质,所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在设备执行前述基于AllReduce分布式训练梯度压缩加速方法。
从而,针对Intra-node将FP32转成FP16,针对Inter-node使用EF-SGD方法压缩梯度,相对于稀疏方法损失降低。并且,AllReduce架构相对于Params Server通信结构消除了带宽瓶颈。
附图说明
图1为Params Server结构的分布式深度梯度压缩训练架构示意图;
图2为本发明基于AllReduce的分布式深度梯度压缩训练架构;
图3为本发明实施例提供的ring allreduce架构示意图;
图4为本发明实施例提供的节点连接示意图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于云知声智能科技股份有限公司;厦门云知芯智能科技有限公司,未经云知声智能科技股份有限公司;厦门云知芯智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011504384.2/2.html,转载请声明来源钻瓜专利网。