[发明专利]一种基于DDPG算法选择车辆的异步联邦优化方法在审
申请号: | 202310038329.6 | 申请日: | 2023-01-10 |
公开(公告)号: | CN116055489A | 公开(公告)日: | 2023-05-02 |
发明(设计)人: | 吴琼;王思远 | 申请(专利权)人: | 江南大学 |
主分类号: | H04L67/10 | 分类号: | H04L67/10;H04L67/12;H04W4/40;H04W28/22;H04W28/20;H04W28/18;H04W4/44 |
代理公司: | 苏州市中南伟业知识产权代理事务所(普通合伙) 32257 | 代理人: | 陈华红子 |
地址: | 214000 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 ddpg 算法 选择 车辆 异步 联邦 优化 方法 | ||
1.一种基于DDPG算法选择车辆的异步联邦优化方法,其特征在于,包括:
S1:根据车辆自身传输速率、可用计算资源大小以及车辆位置设定时隙t的系统状态、动作以及奖励;
S2:根据时隙t的系统动作对参与训练的车辆进行选择,得到被选择的车辆;
S3:所述被选择的车辆利用本地数据进行本地训练得到对应的本地模型;
S4:考虑训练时延和传输时延对车辆训练出的本地模型造成的迟滞性影响,对本地模型进行权重优化,得到权重优化后的本地模型;
S5:训练完的车辆将权重优化后的本地模型异步上传到路边单元处进行异步联邦聚合,通过多轮重复训练,最终路边单元得到全局模型。
2.根据权利要求1所述的基于DDPG算法选择车辆的异步联邦优化方法,其特征在于,步骤S1中,根据车辆自身传输速率、可用计算资源大小以及车辆位置设定时隙t的系统状态、动作以及奖励包括:
所述设定时隙t的系统状态为:
s(t)=(Tr(t),μ(t),dx(t),a(t-1))
其中,s(t)为时隙t的系统状态,Tr(t)表示所有车辆在时隙t各自的传输速率的集合,μ(t)为所有车辆在时隙t各自的可用计算资源的集合,dx(t)为所有车辆在时隙t各自沿x轴的位置坐标的集合,a(t-1)为时隙t-1的系统动作;
所述设定时隙t的系统动作为:
a(t)=(λ1(t),λ2(t),…,λK(t))
其中,a(t)为时隙t的系统动作,λi(t),i∈[1,K]表示选择车辆i的概率,令λ1(0)=λ2(0)=…=λK(0)=1;
所述设定时隙t的系统奖励为:
其中,r(t)为时隙t的系统奖励,ω1和ω2为非负的权重因子,adi(t)为时隙t的系统动作,λi(t),i∈[1,K]表示选择车辆i的概率,Loss(t)为异步联邦训练中计算的损失值,为车辆i本地训练所产生的时延,为车辆i在时隙t上传本地模型的传输时延。
3.根据权利要求2所述的基于DDPG算法选择车辆的异步联邦优化方法,其特征在于,步骤S2中,根据时隙t的系统动作对参与训练的车辆进行选择,得到被选择的车辆包括以下步骤:
S21:设定集合ad(t)=(ad1(t),ad2(t),…,adK(t));
S22:将λi(t)进行归一化处理,设定λi(t)取值大于等于0.5的对应adi(t)记为1,否则为0,最终得到的集合ad(t)由0跟1组成,1表示选择车辆,0表示不选择车辆。
4.根据权利要求2所述的基于DDPG算法选择车辆的异步联邦优化方法,其特征在于,基于时隙t的系统奖励,系统的期望长期折扣奖励可以表示为:
其中,γ∈(0,1)为折扣因子,N为总时隙数,μ为系统的策略,J(μ)为系统的期望长期折扣奖励。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江南大学,未经江南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310038329.6/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种真空采血管摇匀机构
- 下一篇:一种基于预训练模型的流谱映射方法及装置