[发明专利]分布式深度神经网络集群分组同步优化方法及系统有效
申请号: | 201710191685.6 | 申请日: | 2017-03-28 |
公开(公告)号: | CN107018184B | 公开(公告)日: | 2019-08-30 |
发明(设计)人: | 蒋文斌;金海;叶阁焰;张杨松;马阳;祝简;彭晶 | 申请(专利权)人: | 华中科技大学 |
主分类号: | H04L29/08 | 分类号: | H04L29/08;H04L12/24;G06N3/08 |
代理公司: | 华中科技大学专利中心 42201 | 代理人: | 李智;曹葆青 |
地址: | 430074 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种分布式深度神经网络集群分组同步优化方法及系统,其中,方法的实现包括:对集群中的节点按性能分组、训练数据按节点性能分配、同组内使用同步并行机制、不同组间使用异步并行机制和不同组间使用不同的学习率。将性能相近的节点分为一组,可以减小同步开销;性能好的节点分配更多的训练数据,可以提高其资源利用率;在同步开销小的组内使用同步并行机制,可以发挥同步并行机制收敛效果好的优点;在同步开销大的组间使用异步并行机制,可以避免同步开销;对不同分组使用不同的学习率,有利于模型收敛。本发明针对异构集群中分布式深度神经网络的参数同步过程,使用了分组同步方法,大大提高了模型的收敛速度。 | ||
搜索关键词: | 分布式 深度 神经网络 集群 分组 同步 优化 方法 系统 | ||
【主权项】:
1.一种分布式深度神经网络集群分组同步优化方法,其特征在于,包括:(1)基于集群中各机器节点的性能将集群中的n台机器节点分为N组,其中,属于同一分组的各机器节点性能相近;(2)为各分组分配训练数据,其中,每个分组中所有机器节点的总体性能与该分组对应的训练数据量正相关,且同一分组内的各机器节点分配的训练数据量相同;(3)为各分组分配不同的学习率,其中,各分组中的机器节点数目及各分组中所有机器节点的总体性能与分组对应的学习率正相关;(4)在每个分组内部使用同步并行机制对分组中的训练数据进行训练;步骤(4)具体包括:(4.1)在每个分组内部使用同步并行机制:对于每个分组groupj,j=1~N,groupj内的机器节点在一轮迭代结束后,将该机器节点计算出的梯度提交参数服务器,同时等待groupj内其它机器节点完成本轮迭代并向参数服务器提交梯度;(4.2)参数服务器将分组groupj内所有机器节点的梯度累加并求平均:其中,ΔWk表示groupj中每台机器节点计算出的梯度,Mj表示groupj中机器节点的数量;(4.3)由W'=W‑ηj'×ΔWj更新本地模型参数W,并将更新后的模型参数W'分发到groupj中的各台机器节点上,其中ηj'为groupj使用的学习率;(5)各分组之间使用异步并行机制对分组中的训练数据进行训练;步骤(5)具体包括:在不同组间使用异步并行机制:参数服务器为每个分组分配一个处理进程,每个进程只负责与该进程对应分组的模型参数更新,各进程间共享参数服务器的本地模型参数,在一轮迭代中,一个进程计算出该进程对应分组内所有机器节点的平均梯度ΔWj后,使用ΔWj来更新本地模型参数W,而不用等待其它分组中的机器节点提交的梯度。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201710191685.6/,转载请声明来源钻瓜专利网。
- 上一篇:饲料分类收集装置
- 下一篇:一种可调节粉碎粒径的畜禽饲料用饲料粉碎机