[发明专利]基于联邦学习的后门攻击防御方法、系统及可存储介质有效
申请号: | 202111283267.2 | 申请日: | 2021-11-01 |
公开(公告)号: | CN113962322B | 公开(公告)日: | 2022-05-17 |
发明(设计)人: | 陈艳姣;徐文渊;龚雪鸾;李晓媛 | 申请(专利权)人: | 浙江大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08;G06N20/00;G06F21/57 |
代理公司: | 北京睿智保诚专利代理事务所(普通合伙) 11732 | 代理人: | 韩迎之 |
地址: | 310058 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 联邦 学习 后门 攻击 防御 方法 系统 存储 介质 | ||
1.一种基于联邦学习的后门攻击防御方法,基于多个客户端,其特征在于,包括:
特征提取:获取参与联邦学习的n个客户端的局部模型数据,计算特征参数:除法差异DDifs、归一化能量更新NEUP以及余弦距离,并进行同质性特征提取;
分类:计算各个客户端的局部模型超过归一化能量更新NEUP阈值的数量,并使用其数量的1/2作为分类边界值,根据边界值对局部模型中的中毒模型进行标记;
聚类:根据计算得到的特征参数:除法差异DDifs、归一化能量更新NEUP以及余弦距离,使用动态聚类算法,对局部模型进行聚类,得到集群模型;
中毒簇识别与删除:根据聚类结果以及标记结果,计算每个聚类中毒标记模型的百分比,根据百分比结果对集群模型进行识别,根据识别结果保留或删除集群模型;
剪裁:计算所有保留模型更新的L2范数,并将其中位数作为剪裁边界,对集群模型中超出剪裁边界的局部模型进行缩放;
聚合:将同一集群模型中所剩余的剪裁模型使用FedAvg进行聚合,使每个客户端收到对应的集群聚合的模型;
其中,
所述计算除法差异DDifs的公式为:
式中,DDift,k,i为客户端k在第t轮提交的模型|Wt,k的除法差异DDifs,Nsamples为随机输入样本sm,其中,m∈[0,Nsamples-1]的个数,p(sm|Wt,k)i为局部模型中每个输出层神经元i预测的概率,p(sm|Gt)i为全局模型|Gt的相应神经元预测的概率;
其中,全局模型是联邦学习中由局部模型聚合得到的模型;
所述计算归一化能量更新NEUP的公式为:
式中,εt,k,i表示客户端k在第t轮提交的模型的输出层神经元i的能量更新,P表示输出层神经元与前一层神经元的连接数,bt,k,i是客户端k第t轮的输出层的神经元i的偏置,wt,k,i,p是客户端k第t轮的输出层的神经元i连接到来自前一层的神经元p的权重,及是全局模型Gt中神经元的偏置和权重;
将同一模型的所有输出层神经元的能量更新归一化,使得各个能量更新不受模型更新能量总范围的影响,具体公式如下:
式中,ct,k,i表示归一化后的客户端k在第t轮提交的模型的输出层神经元i的能量更新,表示表示客户端k在第t轮提交的模型的输出层神经元i的能量更新的平方;
所述计算特征参数余弦距离的公式为:
Ui,t=wi,t-wGt
Uj,t=wj,t-wGt
Ci,j,t=1-cos(Ui,t-Uj,t)
式中,Ci,j,t是客户端i和客户端j在第t轮的余弦距离,Ui,t代表客户端i在第t轮的更新量,wi,t代表代表客户端i在第t轮的输出层的神经元的偏置和,wGt表示全局模型Gt输出层的神经元的偏置和,Uj,t表示为客户端j在第t轮的更新量,wj,t表示为客户端j在第t轮的输出层的神经元的偏置和。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111283267.2/1.html,转载请声明来源钻瓜专利网。
- 上一篇:具有可展开刀片状物的植入物
- 下一篇:一种建筑排水出户管防沉降结构及方法