[发明专利]基于横向联邦学习的数据处理系统在审
申请号: | 202110335358.X | 申请日: | 2021-03-29 |
公开(公告)号: | CN113077056A | 公开(公告)日: | 2021-07-06 |
发明(设计)人: | 蔡文渊;王宇河;高明;钱卫宁;顾海林;徐林昊 | 申请(专利权)人: | 上海嗨普智能信息科技股份有限公司;华东师范大学 |
主分类号: | G06N20/00 | 分类号: | G06N20/00 |
代理公司: | 北京锺维联合知识产权代理有限公司 11579 | 代理人: | 丁慧玲 |
地址: | 200434 上海市虹口*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 横向 联邦 学习 数据处理系统 | ||
本发明涉及一种基于横向联邦学习的数据处理系统,实现步骤S1、初始化全局模型,设置K和相似度阈值Q;S2、选取K个客户端,发送初始全局模型进行训练,得到第一轮的全局模型和全局更新矩阵,将t设为2;S3、选取K个客户端,并发送上一轮全局模型Gglobal,t‑1和全局更新矩阵ΔGglobal,t‑1进行第t轮训练,获取第k所选客户端的第t轮本地模型Gk,t和本地更新矩阵ΔGk,t;S4、获取ΔGk,t和ΔGglobal,t‑1的相似度,将大于Q的确定为目标客户端;步骤S5、将目标客户端本地模型的参数顺序重新匹配;S6、获取第t轮全局模型Gglobal,t和全局更新矩阵ΔGglobal,t;S7、判断全局模型是否收敛,若收敛,则结束,否则,令t=t+1,返回S3。本发明减少了通信轮数、加快了模型收敛,从而降低了通信开销。
技术领域
本发明涉及计算机技术领域,尤其涉及一种基于横向联邦学习的数据处理系统。
背景技术
联邦学习是一种机器学习框架,在模型训练时,数据是只存在于各个参与方本地客户端上的,并不会像传统的集中式学习那样将所有的数据聚集到某一个地方进行模型训练。联邦学习分为横向联邦学习和纵向联邦学习,横向联邦学习也称为按样本划分的联邦学习、特征对齐的联邦学习,指的是多个参与方的数据集中的特征重叠较多而用户不同。在现有的跨设备横向联邦学习的模型训练过程中,网络通信成了困扰技术人员的一大难题,由于众多终端设备网络信号的不稳定性、终端设备网络传输能力的参差不齐,因此,如何减少通信轮数、加快模型收敛,从而降低通信开销成为亟待解决的技术问题。
发明内容
本发明目的在于,提供一种基于横向联邦学习的数据处理系统,减少了通信轮数、加快了模型收敛,从而降低了通信开销。
根据本发明一方面,提供了一种基于横向联邦学习的数据处理系统,包括中心服务器、N个客户端、存储有计算机程序的存储器和处理器,所述处理器在执行所述计算机程序时,实现以下步骤:
步骤S1、初始化全局模型Gglobal,0,设置每轮选取参与训练的客户端数量K,K小于N,设置相似度阈值Q;
步骤S2、选取K个客户端,向每一所选客户端发送初始全局模型Gglobal,0进行第一轮训练,得到第一轮的全局模型Gglobal,1和全局更新矩阵ΔGglobal,1,将训练轮次t设置为2,执行步骤S3;
步骤S3、选取K个客户端,向每一所选客户端发送上一轮全局模型Gglobal,t-1和上一轮全局更新矩阵ΔGglobal,t-1进行第t轮训练,获取第k所选客户端基于Gglobal,t-1和ΔGglobal,t-1训练得到的第t轮本地模型Gk,t和本地更新矩阵ΔGk,t;
步骤S4、获取ΔGk,t和ΔGglobal,t-1的相似度,将相似度大于Q的客户端确定为第t轮目标客户端,第t轮目标客户端的数量为kt,kt小于等于K,则第t轮对应的目标客户端本地模型分别为
步骤S5、将的参数顺序重新匹配,得到第t轮参数顺序调整后的所有目标客户端本地模型G'1,t,G'2,t,G'3,t,......G'kt,t;
步骤S6、基于G'1,t,G'2,t,G'3,t,......G'kt,t获取第t轮全局模型Gglobal,t和第t轮全局更新矩阵ΔGglobal,t;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海嗨普智能信息科技股份有限公司;华东师范大学,未经上海嗨普智能信息科技股份有限公司;华东师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110335358.X/2.html,转载请声明来源钻瓜专利网。