[发明专利]基于人工智能的模型训练方法、系统、设备及存储介质在审
申请号: | 202210702558.9 | 申请日: | 2022-06-21 |
公开(公告)号: | CN114781653A | 公开(公告)日: | 2022-07-22 |
发明(设计)人: | 李泽远;王健宗 | 申请(专利权)人: | 平安科技(深圳)有限公司 |
主分类号: | G06N20/00 | 分类号: | G06N20/00;G06K9/62;H04L67/01 |
代理公司: | 深圳众鼎专利商标代理事务所(普通合伙) 44325 | 代理人: | 张美君 |
地址: | 518000 广东省深圳市福田区福*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 人工智能 模型 训练 方法 系统 设备 存储 介质 | ||
本发明涉及人工智能领域,公开了基于人工智能的模型训练方法、装置、设备及存储介质,方法包括:客户端更新服务器的全局模型得到客户端更新模型,并将模型更新时间和模型上传请求发送至服务器;服务器基于余弦退火算法确定聚合等待时长,将在聚合等待时长内接收到的模型上传请求所对应的客户端记录为目标客户端,再聚合接收到的目标客户端的客户端更新模型得到新的全局模型,在全局模型未满足收敛条件继续迭代更新,直至满足收敛条件时将满足收敛条件的全局模型输出为目标模型;本发明在保证全局模型的梯度可以有幅度地更新基础上,可以减少每轮训练时的模型传输量,从而减少传输模型更新的通信成本,提高了模型训练的效率。
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于人工智能的模型训练方法、装置、设备及存储介质。
背景技术
人工智能在医疗图像领域的挑战是各医疗机构之间数据无法互通,数据量有限,形成了数据孤岛,通过联邦学习的方式,各医疗机构的影像数据集不出本地实现了影像数据互通,丰富病例维度,从而提高医疗相关识别模型的精度。
选择客户端(例如,医疗机构或移动设备)使用客户端的本地数据训练模型,并将本地模型的更新发送到中央服务器进行聚合,进行多次迭代直至聚合模型性能达到要求,使得客户端使用聚合模型执行医疗相关的识别任务,联邦学习的方式无需传输任何本地原始数据,即可在不泄露患者隐私的情况下完成模型的训练。但是,传统联邦学习默认所有客户端全程参与,中央服务器聚合所有客户端的更新,这会产生巨大的传输模型更新的通信成本,导致模型训练效率较低。
发明内容
本发明提供一种基于人工智能的模型训练方法、装系统、设备及存储介质,以解决传统联邦学习的模型训练方法中,会产生巨大的传输模型更新的通信成本,导致模型训练效率较低的问题。
提供一种基于人工智能的模型训练方法,包括:
多个客户端根据本地数据集更新服务器发送的全局模型得到客户端更新模型,并将模型更新时间发送至服务器,并向服务器发送模型上传请求;
服务器基于余弦退火算法根据客户端发送的模型更新时间确定聚合等待时长,将在聚合等待时长内接收到的模型上传请求所对应的客户端,记录为目标客户端;
服务器通知目标客户端发送客户端更新模型,并在接收多个目标客户端发送的客户端更新模型后,聚合接收到的客户端更新模型得到新的全局模型;
在新的全局模型未满足收敛条件时,服务器继续将新的全局模型发送至多个客户端,并根据客户端的返回结果迭代更新全局模型,直至迭代更新后的全局模型满足收敛条件时,将满足收敛条件的全局模型输出为目标模型。
进一步地,向服务器发送模型上传请求之前,该方法还包括:
客户端对当前训练轮次的客户端更新模型的性能进行评估,得到客户端更新模型的性能评估结果;
客户端根据性能评估结果确定客户端更新模型的性能是否优于历史客户端模型的性能,历史客户端模型包括客户端的本地模型和历史训练轮次训练得到的客户端更新模型;
若客户端更新模型的性能优于历史客户端模型的性能,则客户端向服务器发送模型上传请求。
进一步地,根据性能评估结果确定客户端更新模型的性能是否优于历史客户端模型的性能之后,该方法还包括:
若客户端更新模型的性能未优于历史客户端模型的性能,则客户端向服务器发送当前训练轮次的跳过请求,以通知服务器不参与当前训练轮次的模型聚合。
进一步地,向服务器发送当前训练轮次的跳过请求之前,该方法还包括:
客户端确定是否连续预设次数未将更新得到的客户端更新模型发送至服务器;
若客户端没有连续预设次数未将更新得到的客户端更新模型发送至服务器,则客户端向服务器发送当前训练轮次的跳过请求;
若客户端连续预设次数未将更新得到的客户端更新模型发送至服务器,则客户端向服务器发送模型上传请求。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于平安科技(深圳)有限公司,未经平安科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210702558.9/2.html,转载请声明来源钻瓜专利网。