[发明专利]一种异构通信网络的分组式联邦学习方法在审
申请号: | 202210485100.2 | 申请日: | 2022-05-06 |
公开(公告)号: | CN114997422A | 公开(公告)日: | 2022-09-02 |
发明(设计)人: | 李立欣;印通;林文晟;李旭;卫保国 | 申请(专利权)人: | 西北工业大学 |
主分类号: | G06N20/20 | 分类号: | G06N20/20;G06F21/62 |
代理公司: | 西北工业大学专利中心 61204 | 代理人: | 金凤 |
地址: | 710072 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 通信 网络 分组 联邦 学习方法 | ||
1.一种异构通信网络的分组式联邦学习方法,其特征在于包括下述步骤:
步骤一、构建联邦学习系统模型:
所述联邦学习系统模型包括至少1个终端设备,所述终端设备具有无线通信发送和接收能力,并具有浮点计算能力;
步骤二、确定优化目标函数:
基于联邦学习系统模型,根据实际需求的人工智能训练模型,确定联邦学习任务优化目标函数;将人工智能训练模型的所有优化目标函数求和后计算均值,得到联邦学习系统模型的优化目标函数;
步骤三、测量并获取步骤一构建的联邦学习系统模型中终端设备之间的最大通信速率,以及各个终端设备的工作频率信息,计算得到终端设备之间的代价函数值;
步骤四、在所有还未具有分组标签的终端设备中,挑选工作频率最高的终端设备作为伪服务器,并由该伪服务器在剩余未分组的终端设备中,选择代价函数值小于给定阈值的终端设备作为该伪服务器分组成员;继续在剩下的未分组的终端设备中挑选工作频率最高的终端设备作为伪服务器,并由该伪服务器在剩余未分组的终端设备中,选择代价函数值小于给定阈值的终端设备作为该伪服务器分组成员,由此不断重复,直至所有终端设备均已分组,将所有终端设备都存在分组标签,得到分组结果;
步骤五、基于步骤四的分组结果,终端设备进行联邦学习任务模型的模型训练和组内模型聚合,不断重复模型训练和组内模型聚合,直至达到预设时间T1,则结束循环;
步骤六、在步骤五进行至预设时间T1后,终端设备进行联邦学习任务模型的模型训练和组间模型聚合,并不断重复模型训练和组间模型聚合,直至达到预设时间T2;
步骤七、不断重复步骤五和步骤六,直至联邦学习任务训练模型的精确度不再提高,精确度不再提高指在当前时刻至规定时间T内,模型的精确度均小于当前时刻的精确度。
2.根据权利要求1所述的异构通信网络的分组式联邦学习方法,其特征在于:
所述代价函数公式具体如下:
其中,将为终端设备中第i个设备和第j个设备之间的代价函数值,Rij为第i个设备和第j个设备之间的最大通信速率,μ为终端设备之间的计算异构性在代价函数中所占权重,fi和fj分别定义为第i个设备和第j个设备的工作频率。
3.根据权利要求1所述的异构通信网络的分组式联邦学习方法,其特征在于:
所述组内模型聚合的步骤为:
所有未被挑选作为伪服务器的终端设备将已有更新后的模型参数发送至未被挑选作为伪服务器的终端设备所在分组内的伪服务器处,该伪服务器等待接收组内所有成员的模型参数后,将收到的模型参数进行加权平均,并下发给本组内的成员。
4.根据权利要求1所述的异构通信网络的分组式联邦学习方法,其特征在于:
所述组间模型聚合过程为:所有身份为伪服务器的终端设备均向除自身外其余伪服务器设备发送更新后的模型参数,并等待接收来自其余伪服务器设备的模型参数,接收完成后,将收到的模型参数进行加权平均,并将加权平均后的模型下发至对应分组的其余普通终端设备。
5.根据权利要求3和4任一所述的异构通信网络的分组式联邦学习方法,其特征在于:
所述模型参数的更新方法采用随机梯度下降法或Adam算法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学,未经西北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210485100.2/1.html,转载请声明来源钻瓜专利网。