[发明专利]基于多样性种群训练的临机协同方法、装置和计算机设备有效
申请号: | 202310364156.7 | 申请日: | 2023-04-07 |
公开(公告)号: | CN116128013B | 公开(公告)日: | 2023-07-04 |
发明(设计)人: | 胡越;徐浩添;方淇;曾俊杰;许凯;张琪;秦龙;尹全军 | 申请(专利权)人: | 中国人民解放军国防科技大学 |
主分类号: | G06N3/006 | 分类号: | G06N3/006;G06N20/00 |
代理公司: | 长沙国科天河知识产权代理有限公司 43225 | 代理人: | 唐品利 |
地址: | 410073 湖*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 多样性 种群 训练 临机 协同 方法 装置 计算机 设备 | ||
1.一种基于多样性种群训练的临机协同方法,其特征在于,所述方法包括:
对交通道路中多车协同驾驶场景进行建模,将己方控制的驾驶车辆建模为智能体
对所述驾驶策略种群
将所述智能体
将所述联合策略应用于所述己方控制的驾驶车辆中,实现与同一道路的非己方车辆之间的临机协同;
其中,所述强化学习算法为Q-DPP方法或PPO算法;所述PPO算法包括:策略网络和价值网络;基于强化学习算法实现行为决策,包括:
基于Q-DPP方法采用价值更新公式更新当前个体策略在下一时刻的动作-价值函数;所述价值更新公式为:
;
其中,为
所述策略网络的损失函数为:
,
其中,为策略网络的损失函数,代表策略的价值函数,代表策略,代表将策略加入策略池;
所述价值网络的损失函数为:
,
其中,为价值网络的损失函数,代表预测价值。
2.根据权利要求1所述的方法,其特征在于,对所述驾驶策略种群
对所述驾驶策略种群
根据所述元博弈的回报矩阵,计算种群的多样性指标;
以最大化奖励为主任务、以最大化所述种群的多样性指标为辅助任务,采用强化学习的方式对所述驾驶策略种群
根据新策略的回报向量扩大博弈空间;
将所述新策略添加到所述驾驶策略种群
在所述多样性驾驶策略种群中以策略种群为训练集,学习一个鲁棒的智能体
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军国防科技大学,未经中国人民解放军国防科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310364156.7/1.html,转载请声明来源钻瓜专利网。