[发明专利]一种基于强化学习的AUV自主避障方法有效
申请号: | 202110115197.3 | 申请日: | 2021-01-28 |
公开(公告)号: | CN112947421B | 公开(公告)日: | 2022-09-13 |
发明(设计)人: | 张飞虎;杨殿禹;程晨升;王璨;王之梁 | 申请(专利权)人: | 西北工业大学 |
主分类号: | G05D1/02 | 分类号: | G05D1/02 |
代理公司: | 西安凯多思知识产权代理事务所(普通合伙) 61290 | 代理人: | 刘新琼 |
地址: | 710072 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 强化 学习 auv 自主 方法 | ||
1.一种基于强化学习的AUV自主避障方法,其特征在于,包括以下步骤:
步骤1:设定AUV海底航行自主避障逻辑规则;
如果前视声呐无法探测到障碍物,则AUV保持现有航行高度通过障碍物;
如果前视声呐探测到障碍物且障碍物高度能够确定,则确定障碍物高度,拉高AUV使AUV航行高度超过障碍物通过障碍物;
如果前视声呐探测到障碍物且障碍物高度无法确定,则AUV启动自主偏航策略,通过偏航方式绕过障碍物;
步骤2:AUV自主偏航策略;
采用基于策略梯度的强化学习模型确定最佳偏航角,基于策略梯度的强化学习模型的建立过程如下:
步骤2-1:初始化网络,建立参数为θμ的Actor-Evaluate网络与参数为θμ′的Actor-Target网络,Actor-Evaluate网络和Actor-Target网络组成Actor网络;建立参数为θq的Critic-Evaluate网络与参数为θq′的Critic-Target网络,Critic-Target网络与Critic-Evaluate网络的初始参数相同;
步骤2-2:Actor-Evaluate网络根据输入的状态st,选择一个行为at;
步骤2-3:AUV根据行为at调整姿态,并获得回报rt与下一状态st+1;
步骤2-4:Actor网络将(st,at,rt,st+1)存入样本库中;
步骤2-5:当样本库数量达到预设值时,从样本库中随机采样N组数据作为训练数据;
步骤2-6:将样本数据输入Critic-Evaluate网络,计算网络输出的值函数L(θ):
其中,N表示样本总数,ri表示第i个样本的回报函数值,γ表示衰减系数,Q′(.)表示Critic-Target输出的结果,ai+1表示第i个样本选择的行为,ai表示第i-1个样本选择的行为,μ′(ai+1|θμ′)表示为Actor-Target网络根据输入ai+1生成的行为,Q(ai,si|θq)表示由Critic-Evaluate根据输入ai与si输出的结果;
步骤2-7:使用反向传播算法计算更新参数θq;
步骤2-8:对Actor网络进行policy-gradient,并更新参数θμ:
步骤2-9:重复步骤2-2到步骤2-8,每经过τ次循环后,将Critic-Evaluate网络的参数全部拷贝到Critic-Target网络,然后继续重复步骤2-2到步骤2-8,直至AUV绕过障碍物。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学,未经西北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110115197.3/1.html,转载请声明来源钻瓜专利网。