[发明专利]一种基于强化学习和启发式搜索的路径规划方法及系统有效
申请号: | 202010800070.0 | 申请日: | 2020-08-11 |
公开(公告)号: | CN111896006B | 公开(公告)日: | 2022-10-04 |
发明(设计)人: | 张秀玲;康学楠;李金祥 | 申请(专利权)人: | 燕山大学 |
主分类号: | G01C21/20 | 分类号: | G01C21/20;G05B13/04;G05B13/02;G05D1/02 |
代理公司: | 北京高沃律师事务所 11569 | 代理人: | 张梦泽 |
地址: | 066000 河北省*** | 国省代码: | 河北;13 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 强化 学习 启发式 搜索 路径 规划 方法 系统 | ||
1.一种基于强化学习和启发式搜索的路径规划方法,其特征在于,包括:
步骤S1:在马尔科夫决策过程框架下建立环境模型,所述环境模型的状态空间为S,动作空间为A,奖励函数为R,转移概率函数为P;
步骤S2:通过Dyna-Q算法对所述环境模型进行采样更新,对每个状态-动作对进行评估并确定目标点;
步骤S3:基于所述目标点,通过A*算法分别计算当前位置与起始点和所述目标点的欧式距离,确定初始路径;
步骤S4:对所述初始路径中每个状态-动作对进行赋值;
步骤S5:根据每个状态-动作对的评估值以及赋值,确定最优动作;
步骤S6:根据最优动作确定最优路径;
所述步骤S2具体包括:
S21:当时间t时,状态为st∈S下,根据上置信边界策略选择动作at∈A,进入下一时刻状态st+1∈S,并得到奖励rt+1;
S22:采样得到的经验序列st,at,st+1,at+1,通过状态-动作对函数进行更新,公式为:
其中,α∈(0,1)表示学习率,γ∈(0,1)表示折损因子;
S23:采样得到的st,at,st+1,at+1存储到模型M(S,A)中,同时随机对模型M(S,A)中的元素进行抽取并利用状态-动作对进行训练。
2.根据权利要求1所述的基于强化学习和启发式搜索的路径规划方法,其特征在于,所述步骤S1具体包括:
S11:利用环境的坐标对状态S进行表征;
S12:智能体所能行走的方向表征为环境的动作空间A;行走方向包括上、下、左以及右;
S13:当智能体碰到障碍物时,获得的奖励为-100,当到达目标点时,获得的奖励为1000,其余情况均为-1;
S14:当智能体在同一状态采取同一动作时,进入的状态是唯一的,所以转移概率函数P=1。
3.根据权利要求1所述的基于强化学习和启发式搜索的路径规划方法,其特征在于,所述步骤S3具体包括:
S31:利用A*算法的启发函数计算当前节点的启发值F(x,y),表示为:
F(x,y)=G(x,y)+H(x,y)
G(x,y)表示起始点到当前位置的欧式距离,H(x,y)表示目标点到当前位置的欧式距离;(x,y)表示当前点坐标,(ox,oy)表示起始点坐标,(gx,gy)表示目标点坐标;
S32:将开放列表中启发值F(x,y)最小的节点X(x,y),加入到关闭列表,然后检查节点X(x,y)周围的点是否在开放列表当中,若否,则将X(x,y)周围的点加入开放列表;重复步骤S3确定初始路径。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于燕山大学,未经燕山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010800070.0/1.html,转载请声明来源钻瓜专利网。