[发明专利]一种基于多智能体的资源分配方法与系统有效
申请号: | 201910775734.X | 申请日: | 2019-08-21 |
公开(公告)号: | CN110648049B | 公开(公告)日: | 2022-06-03 |
发明(设计)人: | 卢宗青;姜杰川 | 申请(专利权)人: | 北京大学 |
主分类号: | G06Q10/06 | 分类号: | G06Q10/06 |
代理公司: | 北京辰权知识产权代理有限公司 11619 | 代理人: | 刘广达 |
地址: | 100871*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本申请公开了一种基于多智能体的资源分配方法与系统,包括:S1控制器选择一个子策略;S2被选子策略获取环境的观察信息,执行动作得到动作奖励;S3重复S2,处理单元使用得到的多个动作奖励,利用强化学习算法更新被选子策略的参数;S4处理单元用分布式算法更新被选子策略的效用平均值;S5处理单元根据效用平均值和策略奖励反馈公式,确定被选子策略的策略奖励,保存至存储单元;S6控制器选择新的子策略,循环执行S2至S5,直至该循环次数达到阈值次数结束;S7处理单元根据与各子策略对应的各策略奖励,用强化学习算法更新控制器参数。分层强化学习模型能够使智能体快速适应复杂环境。使用多个子策略,并与其他智能体协同确定策略奖励,通用性强。 | ||
搜索关键词: | 一种 基于 智能 资源 分配 方法 系统 | ||
【主权项】:
1.一种基于多智能体的资源分配方法,其特征在于,其应用于单个智能体,智能体包括控制器、多个子策略、处理单元、存储单元,包括:/nS1,控制器选择一个子策略;/nS2,被选子策略获取环境的观察信息,执行动作,得到动作奖励;/nS3,重复S2,处理单元使用S2中得到的多个动作奖励,利用强化学习算法更新被选子策略的参数;/nS4,处理单元使用分布式算法更新所述被选子策略的效用平均值;/nS5,处理单元根据所述效用平均值和策略奖励反馈公式,确定被选子策略的策略奖励,保存至存储单元;/nS6,控制器选择新的子策略,循环执行S2至S5,直至该循环次数达到阈值次数结束;/nS7,处理单元根据与各子策略对应的各策略奖励,使用强化学习算法更新控制器参数。/n
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京大学,未经北京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910775734.X/,转载请声明来源钻瓜专利网。
- 同类专利
- 专利分类
G06 计算;推算;计数
G06Q 专门适用于行政、商业、金融、管理、监督或预测目的的数据处理系统或方法;其他类目不包含的专门适用于行政、商业、金融、管理、监督或预测目的的处理系统或方法
G06Q10-00 行政;管理
G06Q10-02 .预定,例如用于门票、服务或事件的
G06Q10-04 .预测或优化,例如线性规划、“旅行商问题”或“下料问题”
G06Q10-06 .资源、工作流、人员或项目管理,例如组织、规划、调度或分配时间、人员或机器资源;企业规划;组织模型
G06Q10-08 .物流,例如仓储、装货、配送或运输;存货或库存管理,例如订货、采购或平衡订单
G06Q10-10 .办公自动化,例如电子邮件或群件的计算机辅助管理
G06Q 专门适用于行政、商业、金融、管理、监督或预测目的的数据处理系统或方法;其他类目不包含的专门适用于行政、商业、金融、管理、监督或预测目的的处理系统或方法
G06Q10-00 行政;管理
G06Q10-02 .预定,例如用于门票、服务或事件的
G06Q10-04 .预测或优化,例如线性规划、“旅行商问题”或“下料问题”
G06Q10-06 .资源、工作流、人员或项目管理,例如组织、规划、调度或分配时间、人员或机器资源;企业规划;组织模型
G06Q10-08 .物流,例如仓储、装货、配送或运输;存货或库存管理,例如订货、采购或平衡订单
G06Q10-10 .办公自动化,例如电子邮件或群件的计算机辅助管理