[发明专利]一种基于隐私保护技术的联合深度学习训练方法有效
申请号: | 201811540698.0 | 申请日: | 2018-12-17 |
公开(公告)号: | CN109684855B | 公开(公告)日: | 2020-07-10 |
发明(设计)人: | 李洪伟;郝猛;徐国文;刘森;龚丽;成艺;李双;任彦之;杨浩淼 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06F21/60 | 分类号: | G06F21/60;G06F21/62;H04L9/00 |
代理公司: | 成都点睛专利代理事务所(普通合伙) 51232 | 代理人: | 孙一峰 |
地址: | 611731 四川省*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明属于人工智能技术领域,涉及一种基于隐私保护技术的联合深度学习训练方法。本发明实现了一种基于隐私保护技术的高效联合深度学习训练方法。本发明中,各个参与方首先在私有数据集上训练本地模型获得本地梯度,再将本地梯度进行拉普拉斯噪音扰动,并加密后发送至云服务器;云服务器将接收到的所有本地梯度与上一轮的密文参数进行聚合操作,并广播产生的密文参数;最终,参与方解密接收到密文参数,并更新本地模型从而进行后续的训练。本发明结合同态加密方案和差分隐私技术,提出了安全高效的深度学习训练方法,保证训练模型的精确性,同时防止服务器推断模型参数和训练数据隐私以及内部攻击获取私密信息。 | ||
搜索关键词: | 一种 基于 隐私 保护 技术 联合 深度 学习 训练 方法 | ||
【主权项】:
1.一种基于隐私保护技术的联合深度学习训练方法,其特征在于,包括以下步骤:S1、系统初始化:系统生成安全参数λ,并为所有参与方分配相同的对称密钥sk=(p,q),同时公开参数N=pq;云服务器初始化全局训练模型以及模型参数ω0和学习速率η;S2、预处理:云服务器广播初始化的模型参数ω0;参与方1加密ω0并将密文参数E(ω0)返回至云服务器,使得云服务器在训练过程中始终持有最新模型参数的密文;S3、训练本地数据:参与方下载全局神经网络模型,并利用私有数据集在本地进行训练;在第t次训练时,参与方μ选择一个小批量数据集训练模型,并根据定义好的损失函数计算训练误差,从而计算本地梯度Gt,μ;S4、梯度加密:加密过程分为两个步骤,首先利用拉普拉斯机制对梯度Gt,μ添加噪音产生然后根据同态加密机制加密被扰动的梯度产生密文梯度Ct,μ;参与方将密文梯度Ct,μ发送至云服务器;S5、安全聚合:云服务器首先聚合接收到的所有密文梯度产生Ct,add,再根据上一轮密文参数E(ωt)产生新的密文参数E(ωt+1);云服务器向所有参与方广播新一轮密文参数E(ωt+1);S6、参数解密:任意参与方对密文参数E(ωt+1)进行模p和模q操作,再利用中国剩余定理解密密文参数;用最新的参数更新本地模型,从而进行后续的模型训练。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201811540698.0/,转载请声明来源钻瓜专利网。