[发明专利]移动机器人路径规划Q学习初始化方法无效

专利信息
申请号: 201210269280.7 申请日: 2012-07-30
公开(公告)号: CN102819264A 公开(公告)日: 2012-12-12
发明(设计)人: 宋勇;李贻斌;刘冰;王小利;荣学文 申请(专利权)人: 山东大学
主分类号: G05D1/02 分类号: G05D1/02
代理公司: 济南圣达知识产权代理有限公司 37221 代理人: 张勇
地址: 250061 山东*** 国省代码: 山东;37
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种基于人工势能场的移动机器人强化学习初始化方法。将机器人工作环境虚拟化为一个人工势能场,利用先验知识确定所有状态的势能值,使得障碍物区域势能值为零,目标点具有全局最大的势能值,这时人工势能场中每个状态的势能值就代表相应状态遵循最优策略获得的最大累积回报。然后定义Q初始值为当前状态的立即回报加上后继状态的最大折算累积回报。人工势能场将已知环境信息映射成为Q函数初始值,从而将先验知识融入到机器人学习系统中,提高了机器人在强化学习初始阶段的学习能力,与传统Q学习算法相比,本发明能够有效提高初始阶段的学习效率,加快算法收敛速度,算法收敛过程更稳定。
搜索关键词: 移动 机器人 路径 规划 学习 初始化 方法
【主权项】:
一种移动机器人路径规划Q学习初始化方法,其特征是,具体包括以下步骤:步骤一:建立人工势能场模型:根据已知环境信息在机器人工作空间构建人工势能场,使得障碍物区域势能值为零,目标点具有全局最大的势能值,整个势能场形成单调递增的曲面,这时人工势能场中每个状态的势能值就代表该状态获得的最大累积回报;步骤二:设计回报函数;步骤三:计算最大累积回报初始值:将每个状态的势能值作为该状态遵循最优行为策略所能够获得的最大累积回报;步骤四:Q值初始化:将所有状态‑动作对的Q(s,a)初始值定义为当前状态执行选定的动作获得的立即回报加上后继状态遵循最优策略获得的最大折算累积回报;步骤五:基于人工势能场的移动机器人Q‑学习:移动机器人在初始Q值的基础上继续在复杂环境中进行强化学习,通过Q值初始化能够将先验知识融入到学习系统中,对机器人初始阶段的学习进行优化,从而为机器人提供一个较好的学习基础。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山东大学,未经山东大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201210269280.7/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top