[发明专利]一种减少分布式机器学习通信开销的方法有效
申请号: | 201910583390.2 | 申请日: | 2019-07-01 |
公开(公告)号: | CN110287031B | 公开(公告)日: | 2023-05-09 |
发明(设计)人: | 李武军;解银朋;赵申宜;高昊 | 申请(专利权)人: | 南京大学 |
主分类号: | G06F9/50 | 分类号: | G06F9/50;G06N20/00 |
代理公司: | 南京乐羽知行专利代理事务所(普通合伙) 32326 | 代理人: | 李玉平 |
地址: | 210046 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种减少分布式机器学习通信开销的方法,基于参数服务器架构,既适用于数据中心的多机集群分布式机器学习,也适用于服务器作为云端、手机或嵌入式设备作为终端的端云协同分布式机器学习。包括以下步骤:首先所有工作节点计算梯度,并结合两轮参数差求出全局动量,将全局动量与上一轮记忆梯度求和得到新一轮记忆梯度,对其取部分发给服务器节点,剩下部分进行累积;随后服务器节点累积所有稀疏的记忆梯度和,以此更新参数并将两轮的参数差广播给所有工作节点;最后工作节点接收两轮参数差,并更新参数。本发明的方法基于全局梯度压缩,工作节点与服务器节点间通信时只传递全局动量的一部分,从而减小了分布式机器学习中的通信开销。 | ||
搜索关键词: | 一种 减少 分布式 机器 学习 通信 开销 方法 | ||
【主权项】:
1.一种减少分布式机器学习通信开销的方法,其特征在于,其在服务器节点上训练流程的具体步骤为:步骤100,输入机器学习模型w以及总共的迭代轮数T、工作节点数目p、样本总数n、学习率ηt;步骤101,随机初始化模型参数w=w0;步骤102,累计所有工作节点发送过来的稀疏记忆梯度
步骤103,更新模型参数wt+1=wt‑ηtvt,k;步骤104,将参数差wt+1‑wt广播给所有的工作节点;步骤105,判断当前已完成的迭代轮数t是否达到总共的迭代轮数T,如果是则输出并保存模型参数w;否则返回步骤102继续进行训练。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京大学,未经南京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910583390.2/,转载请声明来源钻瓜专利网。