[发明专利]动态环境下基于深度强化学习的移动机器人避碰规划方法有效

专利信息
申请号: 201910953396.4 申请日: 2019-10-09
公开(公告)号: CN110632931B 公开(公告)日: 2022-06-21
发明(设计)人: 王宏健;何姗姗;严浙平;付忠健;阮力;刘超伟 申请(专利权)人: 哈尔滨工程大学
主分类号: G01S17/93 分类号: G01S17/93;G05D1/02;G06N3/04;G06N3/08
代理公司: 暂无信息 代理人: 暂无信息
地址: 150001 黑龙江省哈尔滨市南岗区*** 国省代码: 黑龙江;23
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开一种动态环境下基于深度强化学习的移动机器人避碰规划方法,属于移动机器人导航技术领域。本发明通过激光测距仪采集原始数据,将原始数据处理后作为神经网络的输入,建立LSTM神经网络,通过A3C算法,神经网络输出相应参数,经过处理获得机器人每一步的动作。本发明无需对环境进行建模,更加适用于未知障碍物环境,采用actor‑critic框架与时间差分算法,实现低方差的同时更适用于连续动作空间,实现边训练边学习的效果。设计具有艏向转角限制的连续动作空间,且采用4个线程并行学习训练,与一般深度强化学习方法相比,大大提高学习训练时间,减少样本相关性,保障探索空间的高利用性与探索策略的多样性,从而提升算法收敛性、稳定性以及避障成功率。
搜索关键词: 动态 环境 基于 深度 强化 学习 移动 机器人 规划 方法
【主权项】:
1.一种动态环境下基于深度强化学习的移动机器人避碰规划方法,其特征在于,包括以下步骤:/n步骤一:通过移动机器人所携带的激光测距仪获取原始数据,获得障碍物信息;/n步骤二:对步骤一中原始数据进行数据处理后,与在全局坐标系下的相关位置、角度信息结合进行相应处理,处理后的数据即A3C算法的状态S;/n步骤三:设计A3C算法的动作空间、奖励函数,奖励函数包括对与目标距离的惩罚、与障碍物距离的惩罚以及对所用步长的惩罚;/n步骤四:设计障碍物环境,构建多类型动态障碍物;/n步骤五:建立LSTM神经网络,将步骤二中所得状态作为神经网络的输入,输出经处理后即为移动机器人所选择的动作即艏向角角度;/n步骤六:通过所建立的神经网络,使用A3C算法进行训练学习,在训练过程中,神经网络针对每一步的状态-动作对进行好坏评价,通过评价值不断更新网络相应参数,最终朝着使奖励最大化的方向更新,经过预设回合的训练后,移动机器人通过训练好的网络能够实现有效避障。/n
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工程大学,未经哈尔滨工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201910953396.4/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top