[发明专利]联邦学习信息处理方法、系统、存储介质、程序、终端有效

专利信息
申请号: 202010282762.0 申请日: 2020-04-12
公开(公告)号: CN111611610B 公开(公告)日: 2023-05-30
发明(设计)人: 樊凯;赵斌;金海;尤伟;李晖 申请(专利权)人: 西安电子科技大学
主分类号: G06F21/62 分类号: G06F21/62;G06N3/045;G06N3/0464;G06N3/0499;G06N3/098
代理公司: 西安长和专利代理有限公司 61227 代理人: 肖志娟
地址: 710071 陕西省*** 国省代码: 陕西;61
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 联邦 学习 信息处理 方法 系统 存储 介质 程序 终端
【权利要求书】:

1.一种联邦学习信息处理方法,其特征在于,所述联邦学习信息处理方法包括:

第一步,参数服务器确认训练任务及初始参数,并初始化全局模型;

第二步,参数服务器随机选择部分参与者下发模型参数,加密并通过代理服务器转发;

第三步,参与者接受模型部分参数并覆盖本地模型,利用本地数据对模型进行优化;

第四步,参与者根据优化结果计算模型梯度,选择其中部分上传,对上传梯度添加噪声实现差分隐私,加密并通过代理服务器转发;

第五步,参数服务器接受所有参与者的梯度,整合并更新全局模型;

第六步,重复进行模型的下发—训练—更新过程,直到达到预期损失函数;

所述第一步的模型初始化包括:参数服务器确定训练任务,训练过程,以及相应的参数,并初始化全局模型

所述第二步的模型下发包括:

步骤一,参数服务器随机选择m个参与者,全局模型分别用这m个参与者的公钥(PK1',PK2',...,PKm')加密,得到模型的密文数据:

步骤二,参数服务器将加密数据发送至代理服务器,代理服务器再转发给所有参与者;

所述第三步的本地优化包括:所有参与者接收密文数据后,用自己的私钥解密,若能解密得到明文,则随机选择个参数,并替换对应本地模型上的参数值,得到本地模型Wit,并在本地数据集Di上优化模型,最小化损失函数:

其中,ni是数据集的样本数,xj表示某一样本,f(xj,Wit)是样本通过模型输出的标签,yj是样本本身标签;

通过小批量梯度下降法优化模型,将数据集Di分为大小为b_size大小的子数据集的集合Bi,对于Bi中每个子数据集b,根据梯度下降更新模型参数:

Wit←Wit-αΔL(Wit;b);

其中,α是学习率,ΔL是损失函数在b上的梯度,对Bi中所有子数据集更新完一次后即为一个epoch,经过多个epoch后得到预期优化模型;

所述第四步的梯度上传包括:

步骤一,计算模型梯度,即优化后模型与原全局模型的参数差值:

步骤二,选择其中最大的λu×|ΔWit|个梯度上传,保持梯度不变,其余梯度置为0,将要上传的梯度范围限制在[-r,r],敏感度Δf不超过2r,为每个梯度添加噪音,满足ε-差分隐私:

其中,f(D)代表原梯度值,A(D)代表添加噪音之后的梯度值,d取值1;

步骤三,将添加噪音之后的梯度用参数服务器公钥加密,并发送到代理服务器,然后由代理服务器转发给参数服务器;

所述第五步的模型更新包括:参数服务器接收并解密来自m个参与者的梯度值,整合优化得到全局模型全局模型的任一参数为:

其中,是原全局模型的参数值,是参与者i对应的梯度值;

所述第六步的迭代训练包括:继续上述的模型下发—优化—更新过程,直到模型达到预期损失函数:

2.一种存储在计算机可读介质上的计算机程序产品,包括计算机可读程序,供于电子装置上执行时,提供用户输入接口以实施如权利要求1所述的联邦学习信息处理方法。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202010282762.0/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top