[发明专利]一种基于模型分割的联邦学习加速方法在审

专利信息
申请号: 202210057437.3 申请日: 2022-01-19
公开(公告)号: CN114492746A 公开(公告)日: 2022-05-13
发明(设计)人: 曹绍华;陈辉;陈舒;张汉卿;张卫山;吴春雷 申请(专利权)人: 中国石油大学(华东)
主分类号: G06N3/04 分类号: G06N3/04;G06N3/08;G06K9/62
代理公司: 青岛智地领创专利代理有限公司 37252 代理人: 陈海滨
地址: 266580 山*** 国省代码: 山东;37
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 模型 分割 联邦 学习 加速 方法
【权利要求书】:

1.一种基于模型分割的联邦学习加速方法,其特征在于,具体包括如下步骤:

S1.输入训练数据后,服务器从N个参与者中随机选择K个参与者(K≤N)进行本地训练,首先进行两轮传统的联邦学习,不执行任何卸载策略;

S2.计算前两轮全局损失函数变化量与每个参与者的训练时间,将前两轮全局损失函数变化量从大到小进行排序,选择排名靠前的参与者进行训练;

S3.综合考虑训练时间与网络带宽因素,每一轮训练之后动态地对参与者进行分组,将低带宽的参与者分到额外的组,具有相似特征的分为一组,同一组执行相同的卸载策略;

S4.综合考虑参与者的训练时间与计算能力,结合步骤S3的分组情况,进行资源是否受限的判断,若资源受限,进入步骤S5最小化全局训练时间;否则,直接进入步骤S7进行多轮迭代上传;

S5.根据全局训练时间最小化的目标,以深度神经网络的每一层为计算单元,层与层之间产生分割点;

S6.从候选的分割点中选择最佳分割点,动态地将计算任务卸载到可信的边缘服务器中,资源受限的参与者与边缘服务器协同训练,然后由边缘服务器上传参数信息到服务器;

S7.进行多轮迭代,从第三轮联邦学习开始,所有参与者本地训练多次迭代之后再上传参数;

S8.从第三轮联邦学习开始,采用多次迭代之后再聚合的策略,多次迭代结束之后,计算模型的每一层梯度均值变化量;

S9.将变化量从大到小进行排序,变化量越大,敏感度越高,选择敏感度高的层上传,对于敏感度不高的层,将不被上传,从而获得最佳全局模型。

2.根据权利要求1所述的基于模型分割的联邦学习加速方法,其特征在于,包括五个模块:参与者选择模块、动态网络感知模块、计算任务卸载决策模块、本地训练策略模块、动态模型聚合模块;

参与者选择模块负责根据全局损失函数变化量选择高质量参与者;

动态网络感知模块负责综合考虑训练时间与网络宽带,对所有参与者进行分组;

计算任务卸载策略模块负责结合分组情况与全局训练时间最小化,选择最佳卸载点;

本地训练策略模块负责进行多轮迭代再上传,迭代次数根据全局损失函数变化量动态设置;

动态模型聚合模块负责进行多轮迭代再聚合,计算并排序层敏感度,选择敏感度高的层上传。

3.根据权利要求1所述的基于模型分割的联邦学习加速方法,其特征在于,所述步骤S3中,相似特征为网络带宽与CPU频率;所述步骤S4中的计算能力为CPU频率。

4.根据权利要求1所述的基于模型分割的联邦学习加速方法,其特征在于,所述步骤S6中,候选的分割点为数据量小且计算量较小的点。

5.根据权利要求1所述的基于模型分割的联邦学习加速方法,其特征在于,所述步骤S7中,多次迭代次数初始值设为10,然后根据上一轮梯度均值变化量动态设置。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国石油大学(华东),未经中国石油大学(华东)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202210057437.3/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top