[发明专利]基于联邦学习的后门攻击防御方法、系统及可存储介质有效

专利信息
申请号: 202111283267.2 申请日: 2021-11-01
公开(公告)号: CN113962322B 公开(公告)日: 2022-05-17
发明(设计)人: 陈艳姣;徐文渊;龚雪鸾;李晓媛 申请(专利权)人: 浙江大学
主分类号: G06K9/62 分类号: G06K9/62;G06N3/04;G06N3/08;G06N20/00;G06F21/57
代理公司: 北京睿智保诚专利代理事务所(普通合伙) 11732 代理人: 韩迎之
地址: 310058 浙江*** 国省代码: 浙江;33
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 联邦 学习 后门 攻击 防御 方法 系统 存储 介质
【权利要求书】:

1.一种基于联邦学习的后门攻击防御方法,基于多个客户端,其特征在于,包括:

特征提取:获取参与联邦学习的n个客户端的局部模型数据,计算特征参数:除法差异DDifs、归一化能量更新NEUP以及余弦距离,并进行同质性特征提取;

分类:计算各个客户端的局部模型超过归一化能量更新NEUP阈值的数量,并使用其数量的1/2作为分类边界值,根据边界值对局部模型中的中毒模型进行标记;

聚类:根据计算得到的特征参数:除法差异DDifs、归一化能量更新NEUP以及余弦距离,使用动态聚类算法,对局部模型进行聚类,得到集群模型;

中毒簇识别与删除:根据聚类结果以及标记结果,计算每个聚类中毒标记模型的百分比,根据百分比结果对集群模型进行识别,根据识别结果保留或删除集群模型;

剪裁:计算所有保留模型更新的L2范数,并将其中位数作为剪裁边界,对集群模型中超出剪裁边界的局部模型进行缩放;

聚合:将同一集群模型中所剩余的剪裁模型使用FedAvg进行聚合,使每个客户端收到对应的集群聚合的模型;

其中,

所述计算除法差异DDifs的公式为:

式中,DDift,k,i为客户端k在第t轮提交的模型|Wt,k的除法差异DDifs,Nsamples为随机输入样本sm,其中,m∈[0,Nsamples-1]的个数,p(sm|Wt,k)i为局部模型中每个输出层神经元i预测的概率,p(sm|Gt)i为全局模型|Gt的相应神经元预测的概率;

其中,全局模型是联邦学习中由局部模型聚合得到的模型;

所述计算归一化能量更新NEUP的公式为:

式中,εt,k,i表示客户端k在第t轮提交的模型的输出层神经元i的能量更新,P表示输出层神经元与前一层神经元的连接数,bt,k,i是客户端k第t轮的输出层的神经元i的偏置,wt,k,i,p是客户端k第t轮的输出层的神经元i连接到来自前一层的神经元p的权重,及是全局模型Gt中神经元的偏置和权重;

将同一模型的所有输出层神经元的能量更新归一化,使得各个能量更新不受模型更新能量总范围的影响,具体公式如下:

式中,ct,k,i表示归一化后的客户端k在第t轮提交的模型的输出层神经元i的能量更新,表示表示客户端k在第t轮提交的模型的输出层神经元i的能量更新的平方;

所述计算特征参数余弦距离的公式为:

Ui,t=wi,t-wGt

Uj,t=wj,t-wGt

Ci,j,t=1-cos(Ui,t-Uj,t)

式中,Ci,j,t是客户端i和客户端j在第t轮的余弦距离,Ui,t代表客户端i在第t轮的更新量,wi,t代表代表客户端i在第t轮的输出层的神经元的偏置和,wGt表示全局模型Gt输出层的神经元的偏置和,Uj,t表示为客户端j在第t轮的更新量,wj,t表示为客户端j在第t轮的输出层的神经元的偏置和。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202111283267.2/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top