[发明专利]一种基于博弈的强化学习方法、系统、终端及存储介质有效
申请号: | 202111302570.2 | 申请日: | 2021-11-04 |
公开(公告)号: | CN114021737B | 公开(公告)日: | 2023-08-22 |
发明(设计)人: | 席宝;刘佳冀;陈思;高放;王昭;龙玉婧 | 申请(专利权)人: | 中国电子科技集团公司信息科学研究院 |
主分类号: | G06N20/00 | 分类号: | G06N20/00;G06F18/214;G06N3/044;G06N3/092;G06N5/04 |
代理公司: | 北京中知法苑知识产权代理有限公司 11226 | 代理人: | 李明;赵吉阳 |
地址: | 100086 北京*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 博弈 强化 学习方法 系统 终端 存储 介质 | ||
本发明提供种基于博弈的强化学习方法、系统、终端及存储介质,包括:根据输入的博弈规则,基于行为树将学习任务分解为一组子任务;确定每个子任务对应的状态空间、动作空间和奖励函数,并构建强化学习模型;将同一组子任务的强化学习模型的参数进行共享,对所有子任务的强化学习模型进行混合训练;在满足收敛条件的情况下,输出训练的强化学习模型。本发明顶层采用基于博弈规则的行为树在不同子任务之间切换,能够有效降低复杂任务的学习难度,提高学习效率;底层采用基于多智能体的强化学习方法训练与环境交互的模型,可以有效地描述局部环境特征,具有较高的可扩展性和环境适应性。
技术领域
本发明属于数据处理技术领域,具体涉及一种基于博弈的强化学习方法、系统、终端及存储介质。
背景技术
强化学习(Reinforcement Learning,RL)是机器学习的范式和方法论之一,在强化学习领域,将学习的主体抽象为智能体,智能体在与环境的交互过程中,通过学习策略以达成回报最大化或实现特定目标。
近年来,强化学习在棋类博弈、游戏对抗以及资源管理等方面取得了突出的进展。针对多智能体对抗博弈问题,传统的强化学习方法,随着智能体数量增加,导致的状态空间和动作空间呈指数级增长,存在维度灾难问题、智能体的加入和退出导致的可扩展性问题、以及从零开始学习导致的训练效率低的问题等,目前这些问题是强化学习在多智能体对抗博弈问题上。
发明内容
针对现有技术的上述不足,本发明提供一种基于博弈的强化学习方法、系统、终端及存储介质,以解决上述技术问题。
第一方面,本发明提供一种基于博弈的强化学习方法,包括:
根据输入的博弈规则,基于行为树将学习任务分解为一组子任务;
确定每个子任务对应的状态空间、动作空间和奖励函数,并构建强化学习模型;
将同一组子任务的强化学习模型的参数进行共享,对所有子任务的强化学习模型进行混合训练;
在满足收敛条件的情况下,输出训练的强化学习模型。
进一步的,所述确定每个子任务对应的状态空间、动作空间和奖励函数,包括:
确定每个所述子任务对应的全局环境图层和局部环境图层,其中,所述全局环境图层为所述状态空间在全局视角下的环境特征图层,所述局部环境图层为所述状态空间在智能体视角下的环境特征图层。
进一步的,所述确定每个所述子任务对应的全局环境图层和局部环境图层,包括:
获取第一智能体的局部环境图层中的多项环境特征;
将第一智能体的视角角度划分为多个方向块,并确定每个所述方向块对应的态势,所述态势为所述多项环境特征中一项环境特征的总和;
将所述总和放缩到预设范围。
进一步的,所述构建强化学习模型,包括:
根据所述全局环境图层和局部环境图层,构建强化学习模型,所述强化学习模型用于输出智能体的动作和/或状态值,所述全局环境图层通过多层神经网络与局部环境图层的一端进行向量连接,所述局部环境图层的另一端与多层神经网络进行向量连接,所述神经网络包括全连接层、注意力层和循环神经网络层。
进一步的,所述环境特征包括第二智能体的数量、距离和威胁程度。
进一步的,所述全局环境图层中包括环境地形、环境迷雾、博弈双方信息。
第二方面,本发明提供一种基于博弈的强化学习系统,包括:
规则输入单元,配置用于根据输入的博弈规则,基于行为树将学习任务分解为一组子任务;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国电子科技集团公司信息科学研究院,未经中国电子科技集团公司信息科学研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111302570.2/2.html,转载请声明来源钻瓜专利网。