[发明专利]静态环境下基于深度强化学习的移动机器人避碰规划方法有效

专利信息
申请号: 201910953377.1 申请日: 2019-10-09
公开(公告)号: CN110750096B 公开(公告)日: 2022-08-02
发明(设计)人: 王宏健;何姗姗;张宏瀚;袁建亚;于丹;贺巨义 申请(专利权)人: 哈尔滨工程大学
主分类号: G05D1/02 分类号: G05D1/02;G06N3/04;G06N3/08
代理公司: 暂无信息 代理人: 暂无信息
地址: 150001 黑龙江省哈尔滨市南岗区*** 国省代码: 黑龙江;23
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明属于移动机器人导航技术领域,具体涉及一种静态环境下基于深度强化学习的移动机器人避碰规划方法。本发明使用激光测距仪采集原始数据,将处理后的数据作为A3C算法的状态S,通过构建A3C‑LSTM神经网络,将状态S作为网络输入,通过A3C算法,神经网络输出相应参数,利用参数通过正态分布选择移动机器人每一步执行的动作。本发明无需对环境进行建模,通过深度强化学习算法最终实现移动机器人成功在复杂静态障碍物环境下避障。本发明设计具有转艏约束的连续动作空间模型,且采用多线程异步学习,与一般深度强化学习方法相比,大大提高学习训练时间,减少样本相关性,保障探索空间的高利用性与探索策略的多样性,提升算法收敛性、稳定性以及避障成功率。
搜索关键词: 静态 环境 基于 深度 强化 学习 移动 机器人 规划 方法
【主权项】:
1.一种静态环境下基于深度强化学习的移动机器人避碰规划方法,其特征在于,包括以下步骤:/n步骤一:通过移动机器人所携带的激光测距仪获取原始数据,获得障碍物信息;/n步骤二:对步骤一中原始数据进行数据处理后,与在全局坐标系下的相关位置、角度信息结合进行相应处理,处理后的数据即A3C算法的状态S;/n步骤三:设计针对环境下的A3C算法的动作空间、奖励函数,通过奖励函数在移动机器人执行完每一步动作后进行相应奖惩;/n步骤四:设计复杂静态障碍物环境与移动机器人起始位置及虚拟目标;/n步骤五:建立A3C-LSTM神经网络,将状态S作为网络的输入层;/n步骤六:使用A3C算法对建立的A3C-LSTM神经网络进行训练学习,训练完成,将保存好的网络模型应用于移动机器人避障。/n
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工程大学,未经哈尔滨工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201910953377.1/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top