[发明专利]一种分布式深度学习的参数更新优化系统有效
申请号: | 201810457650.7 | 申请日: | 2018-05-14 |
公开(公告)号: | CN108829441B | 公开(公告)日: | 2022-10-18 |
发明(设计)人: | 叶彦;李欣鑫;吴维刚 | 申请(专利权)人: | 中山大学 |
主分类号: | G06F9/38 | 分类号: | G06F9/38 |
代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 林丽明 |
地址: | 510275 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: |
本发明涉及一种分布式深度学习的参数更新优化系统;在参数更新部分对参数进行了版本控制,在参数服务器端和工作节点上都增加了参数的版本号,当前的工作节点拉取最新版本的参数进行训练跟梯度计算后,参数服务器会根据两个版本号的差值作为此工作节点此次迭代的梯度陈旧度σ |
||
搜索关键词: | 一种 分布式 深度 学习 参数 更新 优化 系统 | ||
【主权项】:
1.一种分布式深度学习的参数更新优化系统,包括一个或多个参数服务器节点和多个工作节点,其特征在于:该系统的国内工作过程包括以下步骤:S1.工作节点根据用户规定好的模型结构,随机初始化各层参数,并记录当前参数版本为θl=0,l的取值范围为(0,λ),参数服务器设置参数版本号为θ0=0,并根据用户定义将强制同步间隔值T初始化为一常量值;S2.每个工作节点读入本地的一批训练数据至内存;S3.工作节点根据读入的样本数据及对应的期望输出,进行前向传播,最后得到模型的输出值;其中,各工作节点互不影响,独立计算;S4.工作节点根据前向传播的模型输出与样本数据的期望输出的误差得到损失函数值Loss,根据损失函数值Loss进行反向传播,逐层计算参数梯度ΔWl;S5.工作节点将计算完的梯度ΔWl以及当前使用的参数版本号θl发回至参数服务器,等待参数服务器对参数进行更新。参数服务器每收到一个工作节点传来的梯度就将参数版本号加1,即θ0=θ0+1;S6.参数服务器对θ0进行判断,如果θ0%T不为0,参数更新使用梯度加权方式,用以下公式(1.1)定义此工作节点发来的梯度的陈旧度:σi,l=θl‑θ0 (1.1)然后利用公式(1.2)更新全局参数
如果(θ0%T)==0,则表明当前所有工作节点的已经一共进行了T次异步更新操作,需要进行强制同步,参数更新办法利用公式(1.3)进行聚合平均。
其中,各参数含义如下![]()
S7.参数服务器更新完全局参数后,工作节点从参数服务器拉取最新的参数以及版本号,并更新本地的参数版本号θl=θ0。参数服务器等待接收下一个梯度。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201810457650.7/,转载请声明来源钻瓜专利网。
- 上一篇:一种将逻辑组态数组转为逻辑执行命令的方法和系统
- 下一篇:程序启动方法及装置