[发明专利]一种减少分布式机器学习通信开销的方法有效

专利信息
申请号: 201910583390.2 申请日: 2019-07-01
公开(公告)号: CN110287031B 公开(公告)日: 2023-05-09
发明(设计)人: 李武军;解银朋;赵申宜;高昊 申请(专利权)人: 南京大学
主分类号: G06F9/50 分类号: G06F9/50;G06N20/00
代理公司: 南京乐羽知行专利代理事务所(普通合伙) 32326 代理人: 李玉平
地址: 210046 江苏*** 国省代码: 江苏;32
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 减少 分布式 机器 学习 通信 开销 方法
【权利要求书】:

1.一种减少分布式机器学习通信开销的方法,其特征在于,其在服务器节点上训练流程的具体步骤为:

步骤100,输入机器学习模型w以及总共的迭代轮数T、工作节点数目p、样本总数n、学习率ηt

步骤101,随机初始化模型参数w=w0

步骤102,累计所有工作节点发送过来的稀疏记忆梯度mt,k为稀疏向量,gt,k为全局动量向量;

步骤103,更新模型参数wt+1=wttvt,k

步骤104,将参数差wt+1-wt广播给所有的工作节点;

步骤105,判断当前已完成的迭代轮数t是否达到总共的迭代轮数T,如果是则输出并保存模型参数w;否则返回步骤102继续进行训练;

其在第k个工作节点上训练流程的具体步骤为:

步骤200,输入训练样本集合的子集完整的训练样本集合以及总共的迭代轮数T、学习率ηt、稀疏度ρ、批量大小b、动量系数β、模型参数大小d;

步骤201,初始化记忆动量u0,k=0;

步骤202,接受服务器节点发送的模型参数差wt-wt-1

步骤203,更新模型参数wt=wt-1-(wt-wt-1);

步骤204,从本地数据集中随机挑选一个小批量数据

步骤205,根据本地的样本数据集计算出随机梯度其中则表示第i个样本ξi所对应的损失函数在当前模型参数下的梯度;

步骤206,计算全局动量向量

步骤207,生成一个稀疏向量mt,k∈{0,1}d,||mt,k||0=dρ;

步骤208,发送mt,k⊙(ut,k+gt,k)到服务器节点;

步骤209,更新记忆梯度ut+1,k=(1-mt,k)⊙(ut,k+gt,k),k=1,2,…,p;

步骤210,判断当前已完成的迭代轮数t是否达到总共的迭代轮数T,如果是则结束训练流程;否则返回步骤202继续进行训练。

2.如权利要求1所述的减少分布式机器学习通信开销的方法,其特征在于:步骤207-209中,生成一个稀疏向量mt,k∈{0,1}d,||mt,k||0=dρ,发送mt,k⊙(ut,k+gt,k)到服务器节点,更新记忆梯度ut+1,k=(1-mt,k)⊙(ut,k+gt,k),k=1,2,…,p。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京大学,未经南京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201910583390.2/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top