[发明专利]多智能体行动策略学习方法、装置、介质和计算设备在审
申请号: | 202010072011.6 | 申请日: | 2020-01-21 |
公开(公告)号: | CN111309880A | 公开(公告)日: | 2020-06-19 |
发明(设计)人: | 黄民烈;高信龙一 | 申请(专利权)人: | 清华大学 |
主分类号: | G06F16/332 | 分类号: | G06F16/332;G06N3/04;G06N3/08 |
代理公司: | 北京志霖恒远知识产权代理事务所(普通合伙) 11435 | 代理人: | 韩雪梅 |
地址: | 100084 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 智能 行动 策略 学习方法 装置 介质 计算 设备 | ||
1.一种多智能体行动策略学习方法,包括:
所述多智能体分别根据各自的初始行动策略采样相应的动作;
分别估计所述多智能体执行相应动作后获得的优势;
基于所述多智能体执行相应动作后获得的优势更新各智能体的行动策略,以使更新后的各个行动策略能够使得相应的智能体获得更高的回报。
2.如权利要求1所述的方法,其中,所述多智能体分别根据各自的初始行动策略执行相应的动作之前,所述方法还包括:
使用真实行动数据进行预训练以分别得到所述多智能体各自的初始行动策略。
3.如权利要求2所述的方法,其中,采用加权逻辑回归法基于真实行动数据进行预训练以分别得到所述多智能体各自的初始行动策略。
4.如权利要求1所述的方法,其中,分别估计所述多智能体执行相应动作后获得的优势,包括:
分别获取各智能体执行相应动作后所达到的新状态;
分别计算各智能体当前状态和达到新状态后的回报;
分别根据各智能体当前状态和达到新状态后的回报计算各智能体执行相应动作后获得的优势。
5.一种多智能体行动策略学习装置,包括多个多智能体和多个价值网络,其中,所述多个智能体分别根据各自的初始行动策略采样相应的动作;
所述多个价值网络分别估计所述多智能体执行相应动作后获得的优势;
所述多个智能体基于执行相应动作后获得的优势更新各自的行动策略,以使更新后的各个行动策略能够使得相应的智能体获得更高的回报。
6.如权利要求5所述的装置,其中,所述装置还包括:
预训练模块,被配置为使用真实行动数据进行预训练以分别得到所述多智能体各自的初始行动策略。
7.如权利要求6所述的装置,其中,所述预训练模块,被配置为采用加权逻辑回归法基于真实行动数据进行预训练以分别得到所述多智能体各自的初始行动策略。
8.如权利要求5所述的装置,其中,所述装置还包括多个状态编码模块,被配置为分别获取各智能体执行相应动作后所达到的新状态;
所述多个价值网络还被配置为分别计算各智能体当前状态和达到新状态后的回报;以及分别根据各智能体当前状态和达到新状态后的回报计算各智能体执行相应动作后获得的优势。
9.一种介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现如权利要求1-4中任一项所述的方法。
10.一种计算设备,特征在于:所述计算机设备包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现如权利要求1-4中任一项所述的方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010072011.6/1.html,转载请声明来源钻瓜专利网。