[发明专利]分布式深度神经网络集群分组同步优化方法及系统有效
申请号: | 201710191685.6 | 申请日: | 2017-03-28 |
公开(公告)号: | CN107018184B | 公开(公告)日: | 2019-08-30 |
发明(设计)人: | 蒋文斌;金海;叶阁焰;张杨松;马阳;祝简;彭晶 | 申请(专利权)人: | 华中科技大学 |
主分类号: | H04L29/08 | 分类号: | H04L29/08;H04L12/24;G06N3/08 |
代理公司: | 华中科技大学专利中心 42201 | 代理人: | 李智;曹葆青 |
地址: | 430074 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 分布式 深度 神经网络 集群 分组 同步 优化 方法 系统 | ||
1.一种分布式深度神经网络集群分组同步优化方法,其特征在于,包括:
(1)基于集群中各机器节点的性能将集群中的n台机器节点分为N组,其中,属于同一分组的各机器节点性能相近;
(2)为各分组分配训练数据,其中,每个分组中所有机器节点的总体性能与该分组对应的训练数据量正相关,且同一分组内的各机器节点分配的训练数据量相同;
(3)为各分组分配不同的学习率,其中,各分组中的机器节点数目及各分组中所有机器节点的总体性能与分组对应的学习率正相关;
(4)在每个分组内部使用同步并行机制对分组中的训练数据进行训练;
(5)各分组之间使用异步并行机制对分组中的训练数据进行训练。
2.根据权利要求1所述的方法,其特征在于,步骤(1)具体包括:
(1.1)对集群中的每台机器节点nodei,使用该机器节点nodei训练一个世代,其中,i为机器节点标号,i=1~n,每台机器节点训练所使用的训练数据、神经网络结构和训练超参数相同;
(1.2)获取每台机器节点的训练时间ti,根据每台机器节点的训练时间ti将所有机器节点分为N组,其中,属于同一分组的各机器节点的训练时间相近。
3.根据权利要求2所述的方法,其特征在于,步骤(2)具体包括:
对于每个分组groupj,由计算出groupj中每台机器节点分配的训练数据量百分比,其中,Tj表示groupj中训练时间最长的机器节点对应的训练时间,Mj表示groupj中机器节点的数量,j=1~N,Tg表示groupg中训练时间最长的机器节点对应的训练时间,Mg表示groupg中机器节点的数量,j、g为分组标号。
4.根据权利要求3所述的方法,其特征在于,步骤(3)具体包括:
(3.1)为每个分组初始化相同的学习率;
(3.2)在分组groupj,j=1~N对训练数据的训练过程中调整groupj对应的学习率ηj,调整后的学习率为ηj'=factorj×ηj,其中,factorj表示分组groupj对应的学习率动态调整因子,且各分组中的机器节点数目及各分组中所有机器节点的总体性能与分组对应的学习率动态调整因子正相关,ηj'是groupj的学习率ηj经过调整因子factorj调整后的新学习率,factorj取值范围为:0~1。
5.根据权利要求4所述的方法,其特征在于,步骤(4)具体包括:
(4.1)在每个分组内部使用同步并行机制:对于每个分组groupj,j=1~N,groupj内的机器节点在一轮迭代结束后,将该机器节点计算出的梯度提交参数服务器,同时等待groupj内其它机器节点完成本轮迭代并向参数服务器提交梯度;
(4.2)参数服务器将分组groupj内所有机器节点的梯度累加并求平均:其中,ΔWk表示groupj中每台机器节点计算出的梯度;
(4.3)由W'=W-ηj'×ΔWj更新本地模型参数W,并将更新后的模型参数W'分发到groupj中的各台机器节点上,其中ηj'为groupj使用的学习率。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710191685.6/1.html,转载请声明来源钻瓜专利网。
- 上一篇:饲料分类收集装置
- 下一篇:一种可调节粉碎粒径的畜禽饲料用饲料粉碎机