[发明专利]用于分布式强化学习的方法、程序产品和存储介质有效
申请号: | 201880025072.8 | 申请日: | 2018-04-16 |
公开(公告)号: | CN110520868B | 公开(公告)日: | 2023-06-02 |
发明(设计)人: | W.C.达布尼;M.金德罗-贝尔-梅尔 | 申请(专利权)人: | 渊慧科技有限公司 |
主分类号: | G06N3/006 | 分类号: | G06N3/006;G06N3/0464;G06N3/047;G06N3/084;G06N7/01;G06N3/098;G06N3/092 |
代理公司: | 北京市柳沈律师事务所 11105 | 代理人: | 金玉洁 |
地址: | 英国*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 方法、系统和设备,包括在计算机存储介质上编码的计算机程序,以选择由与环境交互的强化学习智能体要执行的动作。接收表征环境的当前状态的当前观察。对于可以由与环境交互的智能体执行的多个动作的集合中的每个动作,确定针对动作–当前观察对的可能的Q回报之上的概率分布。对于每个动作,确定相对于针对动作–当前观察对的概率分布的可能的Q回报的集中趋势的度量。使用集中趋势的度量,选择响应于当前观察将由智能体执行的动作。 | ||
搜索关键词: | 用于 分布式 强化 学习 方法 程序 产品 存储 介质 | ||
【主权项】:
1.一种选择将由与环境交互的强化学习智能体执行的动作的方法,所述方法包括:/n接收表征所述环境的当前状态的当前观察;/n对于可由与所述环境交互的所述智能体执行的多个动作中的每个动作,/n使用具有多个网络参数的分布式Q网络处理所述动作和所述当前观察,/n其中所述分布式Q网络是深度神经网络,其被配置为根据所述网络参数的当前值来处理所述动作和所述当前观察,以生成网络输出,所述网络输出限定针对所述动作-当前观察对的可能的Q回报之上的概率分布,和/n其中每个可能的Q回报是从响应于所述当前观察执行所述动作的所述智能体得到的回报的估计,并且/n相对于针对所述动作–当前观察对的概率分布,确定所述可能的Q回报的集中趋势的度量;以及/n使用所述动作的所述集中趋势的度量,从响应于所述当前观察将由所述智能体执行的多个可能动作中选择动作。/n
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于渊慧科技有限公司,未经渊慧科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201880025072.8/,转载请声明来源钻瓜专利网。