[发明专利]联邦学习梯度交换中的差异化加噪方法及系统有效
申请号: | 202010157458.3 | 申请日: | 2020-03-09 |
公开(公告)号: | CN111260061B | 公开(公告)日: | 2022-07-19 |
发明(设计)人: | 范晓亮;龚盛豪;代明亮;俞容山;王程 | 申请(专利权)人: | 厦门大学 |
主分类号: | G06N3/08 | 分类号: | G06N3/08 |
代理公司: | 厦门创象知识产权代理有限公司 35232 | 代理人: | 崔建锋;陈文戎 |
地址: | 361000 *** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 联邦 学习 梯度 交换 中的 异化 方法 系统 | ||
本发明公开了一种联邦学习梯度交换中的差异化加噪方法、介质及系统,其中方法包括:多个数据方分别获取对应的训练数据集,并分别根据对应的训练数据集对深度学习模型进行训练,以更新深度学习模型的梯度;每个数据方将对应的梯度进行分层处理,并计算每一层梯度对应的二范数,以及根据二范数对每一层梯度进行加噪,并将加噪后的梯度发送至中心服务器;中心服务器对加噪后的梯度进行聚合,并将聚合后的梯度发送给每个数据方,以便每个数据方根据聚合后的梯度对本地深度学习模型进行更新;能够提高联邦学习的数据交换过程中隐私的保护强度,同时,相较于传统联邦学习中加密算法,可以降低数据传输的开销。
技术领域
本发明涉及深度学习技术领域,特别涉及一种联邦学习梯度交换中的差异化加噪方法、一种计算机可读存储介质以及一种联邦学习梯度交换中的差异化加噪系统。
背景技术
在进行数据共享和分布式深度学习的过程中,往往存在数据隐私泄露的问题。为了解决这一问题,多采用联邦学习方法,以减少数据交换过程中的隐私泄露。
相关技术中,在使用梯度更新算法的过程中,往往存在隐私保护强度不高的问题;而为了加强隐私保护的强度,通常采用同态加密方法,而这一方法在深度学习的场景中,将会使得原本就庞大的梯度数据再度扩大,进而带来巨大的数据传输开销。
发明内容
本发明旨在至少在一定程度上解决上述技术中的技术问题之一。为此,本发明的一个目的在于提出一种联邦学习梯度交换中的差异化加噪方法,能够提高联邦学习的数据交换过程中隐私的保护强度,同时,降低数据传输的开销。
本发明的第二个目的在于提出一种计算机可读存储介质。
本发明的第三个目的在于提出一种联邦学习梯度交换中的差异化加噪系统。
为达到上述目的,本发明第一方面实施例提出了一种联邦学习梯度交换中的差异化加噪方法,包括以下步骤:多个数据方分别获取对应的训练数据集,并分别根据对应的训练数据集对深度学习模型进行训练,以更新所述深度学习模型的梯度;每个数据方将对应的梯度进行分层处理,并计算每一层梯度对应的二范数,以及根据所述二范数对每一层梯度进行加噪,并将加噪后的梯度发送至中心服务器;所述中心服务器对所述加噪后的梯度进行聚合,并将聚合后的梯度发送给每个数据方,以便每个数据方根据所述聚合后的梯度对本地深度学习模型进行更新。
根据本发明实施例的联邦学习梯度交换中的差异化加噪方法,首先,多个数据方分别获取对应的训练数据集,并分别根据对应的训练数据集对深度学习模型进行训练,以更新深度学习模型的梯度;接着,每个数据方将对应的梯度进行分层处理,并计算每一层梯度对应的二范数,以及根据二范数对每一层梯度进行加噪,并将加噪后的梯度发送至中心服务器;然后,中心服务器对加噪后的梯度进行聚合,并将聚合后的梯度发送给每个数据方,以便每个数据方根据聚合后的梯度对本地深度学习模型进行更新;从而实现提高联邦学习的数据交换过程中隐私的保护强度,同时,降低数据传输的开销。
另外,根据本发明上述实施例提出的联邦学习梯度交换中的差异化加噪方法还可以具有如下附加的技术特征:
可选地,所述深度学习模型的损失函数设置为:
Lij(θi,xj),xj∈Di且j=1,…,ci
其中,θi表示网络参数,xj表示训练数据,Di表示训练数据集,ci表示训练数据集包含的数据总数。
可选地,所述深度学习模型的梯度通过以下公式计算:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于厦门大学,未经厦门大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010157458.3/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种重氮盐连续生产快速转化的方法
- 下一篇:两轴双摆精密研磨抛光机