[发明专利]一种基于AllReduce分布式训练梯度压缩加速方法在审
申请号: | 202011504384.2 | 申请日: | 2020-12-17 |
公开(公告)号: | CN112529163A | 公开(公告)日: | 2021-03-19 |
发明(设计)人: | 谢远东;梁家恩 | 申请(专利权)人: | 云知声智能科技股份有限公司;厦门云知芯智能科技有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 100096 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 allreduce 分布式 训练 梯度 压缩 加速 方法 | ||
1.一种基于AllReduce分布式训练梯度压缩加速方法,其特征在于,包括:
采用AllReduce分布式深度梯度压缩训练架构,所述AllReduce分布式深度梯度压缩训练架构中,不存在参数服务器,工作机之间形成环形闭环传递路径,GPU之间传递压缩后梯度;以及
将节点内压缩模块中将梯度从FP32转成FP16;并
使用误差反馈随机梯度下降算法压缩梯度。
2.根据权利要求1所述的基于AllReduce分布式训练梯度压缩加速方法,其特征在于,所述误差反馈随机梯度下降算法包括:
针对每一次训练进行解压缩得到值pt。
3.根据权利要求2所述的基于AllReduce分布式训练梯度压缩加速方法,其特征在于,所述误差反馈随机梯度下降算法还包括:
使用梯度压缩算法对值pt进行梯度压缩。
4.根据权利要求3所述的基于AllReduce分布式训练梯度压缩加速方法,其特征在于,
值pt为pt=ηgt+et,其中,gt为随机梯度下降值,et为偏差值。
5.根据权利要求4所述的基于AllReduce分布式训练梯度压缩加速方法,其特征在于,
et初始值为0。
6.根据权利要求5所述的基于AllReduce分布式训练梯度压缩加速方法,其特征在于,
所述梯度压缩实施为:采用topk算法,取梯度前k个值pt进行数据整合。
7.根据权利要求5所述的基于AllReduce分布式训练梯度压缩加速方法,其特征在于,所述误差反馈随机梯度下降算法还包括:
更新参数:xt+1=xt-Δt,et+1=pt-Δt。
8.一种存储介质,其特征在于,
所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在设备执行如权利要求1-7任一项所述的基于AllReduce分布式训练梯度压缩加速方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于云知声智能科技股份有限公司;厦门云知芯智能科技有限公司,未经云知声智能科技股份有限公司;厦门云知芯智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011504384.2/1.html,转载请声明来源钻瓜专利网。