[发明专利]一种基于课程学习的多智能体深度确定性策略梯度方法在审
申请号: | 202110798780.9 | 申请日: | 2021-07-15 |
公开(公告)号: | CN113449458A | 公开(公告)日: | 2021-09-28 |
发明(设计)人: | 黄梦醒;冯子凯;吴迪;毋媛媛;冯思玲;张宏瑞;帅文轩;施之羿;于睿华 | 申请(专利权)人: | 海南大学 |
主分类号: | G06F30/25 | 分类号: | G06F30/25;G06F30/27;G06N3/00;G06N20/00;G06F111/04 |
代理公司: | 海南汉普知识产权代理有限公司 46003 | 代理人: | 麦海玲 |
地址: | 570100 海*** | 国省代码: | 海南;46 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 课程 学习 智能 深度 确定性 策略 梯度 方法 | ||
1.一种基于课程学习的多智能体深度确定性策略梯度方法,其特征在于,包括以下步骤:
步骤S1、搭建多智能体粒子环境,定义多智能体行为的约束条件,所述多智能体包括策略网络、策略目标网络、评价网络以及评价目标网络;
步骤S2、初始化各参数,设定迭代次数;
步骤S3、多智能体在多智能体粒子环境中按照策略网络动作,并将多智能体动作所产生的信息存储到经验回放池中,多智能体动作产生的信息包括下一状态信息;
步骤S4、根据经验回放池中的信息构建课程标准,计算课程标准复杂度,智能体根据课程标准复杂度从经验回放池中按照优先权重采样数据;
步骤S5、采用基于Adam优化器的深度确定性策略梯度方法对每个智能体进行训练,并更新策略网络、策略目标网络、评价网络以及评价目标网络,智能体训练完成后,将误差以及重复采样次数存储到经验回放池中进行更新;
步骤S6、判断步骤S3中的下一状态信息所对应的状态是否为终止状态,若为终止状态,则迭代停止,否则循环执行步骤S3-S5。
2.根据权利要求1所述的一种基于课程学习的多智能体深度确定性策略梯度方法,其特征在于,所述步骤S1中的约束条件包括:
单个智能体的观察结果与其他智能体的观察结果无关;
环境为未知的,智能体无法预测奖励及动作后的状态;
忽略智能体之间的通信方法。
3.根据权利要求1所述的一种基于课程学习的多智能体深度确定性策略梯度方法,其特征在于,所述步骤S2中初始化参数包括:对各智能体策略网络和评价网络的参数、样本采样批次大小、经验回放池大小、学习率、一个循环内智能体的最大步数进行初始化。
4.根据权利要求1所述的一种基于课程学习的多智能体深度确定性策略梯度方法,其特征在于,所述步骤S3中多智能体动作所产生的信息包括:状态信息、动作信息、奖励信息以及下一状态信息。
5.根据权利要求1所述的一种基于课程学习的多智能体深度确定性策略梯度方法,其特征在于,所述步骤S4中的课程标准包括优先标准函数、重复惩罚函数以及冗余信息惩罚函数,所述课程标准复杂度的计算公式为:
其中CI(xi)为课程标准复杂度,SP(δiλ)为优先标准函数,RP(cni)为重复惩罚函数,RIP(N)为冗余信息惩罚函数,η、为加权因子。
6.根据权利要求5所述的一种基于课程学习的多智能体深度确定性策略梯度方法,其特征在于,所述优先标准函数的表达式为:
其中δ为TD误差,λ为课程因子,SP(δiλ)→[0,1]。
7.根据权利要求5所述的一种基于课程学习的多智能体深度确定性策略梯度方法,其特征在于,所述重复惩罚函数的表达式为:
其中cn为在经验回放池中增加的重复向量,用于记录每个样本的采样次数。
8.根据权利要求5所述的一种基于课程学习的多智能体深度确定性策略梯度方法,其特征在于,所述冗余信息惩罚函数的表达式为:
其中N为智能体个数。
9.根据权利要求1所述的一种基于课程学习的多智能体深度确定性策略梯度方法,其特征在于,所述步骤S5采用基于Adam优化器的深度确定性策略梯度方法对每个智能体进行训练,并更新策略网络、策略目标网络、评价网络以及评价目标网络的具体步骤为:
步骤S51、计算损失函数的权重,通过Adam优化器最小化损失函数来更新评价网络;
步骤S52、使用策略梯度来更新策略网络;
步骤S53、更新评价目标网络以及策略目标网络参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于海南大学,未经海南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110798780.9/1.html,转载请声明来源钻瓜专利网。