[发明专利]一种基于核心数据集的联邦学习通信量优化方法及系统在审
申请号: | 202011240064.0 | 申请日: | 2020-11-09 |
公开(公告)号: | CN112364913A | 公开(公告)日: | 2021-02-12 |
发明(设计)人: | 肖春华;李开菊 | 申请(专利权)人: | 重庆大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/06;G06N20/00 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 400044 *** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 核心 数据 联邦 学习 通信 优化 方法 系统 | ||
1.一种基于核心数据集的联邦学习通信量优化方法,其特征在于:包括以下步骤,
步骤S1,核心数据集构建。给定数据集D中所有数据点的权重集合损失函数容忍度ε(0<ε<1)、错误率δ(0<δ<1)以及参数R,从D中筛选核心数据集M,使损失函数满足|f(D)-f(M)|≤ε|f(D)|。
步骤S2,稀疏化模型构建。根据给定的模型稀疏化比例α,构建稀疏化的全局模型。
步骤S3,云中心初始化。根据构建的稀疏化全局模型,初始化全局模型参数W0,全局模型更新参数U0,迭代轮数T,上传的总参数量Ω。
步骤S4,本地模型训练。每个终端用户Cr(r=1,2...,n)并行地进行本地模型训练,得到本地模型更新参数Hr(r=1,2,...,n),并将其本地模型更新参数上传至云中心。
步骤S5,全局模型更新。云中心根据终端用户上传的本地模型更新参数,计算得到当前迭代轮数t(t≤T)的全局模型更新Ut以及全局模型参数Wt。
步骤S6,全局模型结构调整。根据全局模型参数Wt以及设置的不重要连接移除比例β,移除全局模型中不重要的网络连接,同时增加β比例的重要连接。
步骤S7,全局模型分发。将调整之后的全局模型以及模型参数分发给每个终端用户,并开始下一轮迭代。
2.根据权利要求1所述一种基于核心数据集的联邦学习通信量优化方法,其特征在于,所述步骤S1包括以下子步骤:
步骤S1-2,计算D中每个数据点i的冗余度mi,其计算公式如下:
其中,表示第k个聚类簇中除去数据点i之后所有数据点的权重和,表示数据点i与第k个聚类簇中所有数据点的加权平均距离。
步骤S1-3,计算D中每个数据点i归一化的冗余度Pi,其计算公式如下:
步骤S1-4,计算D中所有数据点的冗余度平均值其计算公式如下:
步骤S1-5,根据冗余度平均值损失函数容忍度ε,错误率δ,计算核心数据集M的大小,其计算公式如下:
其中,c为一个固定的常数。
步骤S1-6,根据公式(2)和公式(4),从D中筛选核心数据集M。
3.根据权利要求1所述一种基于核心数据集的联邦学习通信量优化方法,其特征在于,所述步骤S2包括以下子步骤,
步骤S2-2,根据模型稀疏化比例α以及网络连接概率稀疏化全连接网络模型,其公式如下:
其中,nl和nl-1分别表示全连接网络模型中第l层和第l-1层神经元的个数,则表示第l层的神经元i与第l-1层的神经元j的连接概率。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆大学,未经重庆大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011240064.0/1.html,转载请声明来源钻瓜专利网。
- 数据显示系统、数据中继设备、数据中继方法、数据系统、接收设备和数据读取方法
- 数据记录方法、数据记录装置、数据记录媒体、数据重播方法和数据重播装置
- 数据发送方法、数据发送系统、数据发送装置以及数据结构
- 数据显示系统、数据中继设备、数据中继方法及数据系统
- 数据嵌入装置、数据嵌入方法、数据提取装置及数据提取方法
- 数据管理装置、数据编辑装置、数据阅览装置、数据管理方法、数据编辑方法以及数据阅览方法
- 数据发送和数据接收设备、数据发送和数据接收方法
- 数据发送装置、数据接收装置、数据收发系统、数据发送方法、数据接收方法和数据收发方法
- 数据发送方法、数据再现方法、数据发送装置及数据再现装置
- 数据发送方法、数据再现方法、数据发送装置及数据再现装置