[发明专利]一种基于奖励重塑强化学习的飞行器智能引导方法有效

专利信息
申请号: 201911307975.8 申请日: 2019-12-18
公开(公告)号: CN111026157B 公开(公告)日: 2020-07-28
发明(设计)人: 李辉;王壮;陈希亮;吴昭欣;吴昊霖 申请(专利权)人: 四川大学
主分类号: G05D1/10 分类号: G05D1/10
代理公司: 暂无信息 代理人: 暂无信息
地址: 610065 四川*** 国省代码: 四川;51
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 奖励 重塑 强化 学习 飞行器 智能 引导 方法
【权利要求书】:

1.一种基于奖励重塑强化学习的飞行器智能引导方法,其特征在于,包括以下步骤:

(1)根据飞行任务确定使用空域范围,设置飞行器的动态模型及可移动目的地的动态模型;

(2)依据飞行器特性,构建基于深度强化学习的引导智能体,智能体的输入是飞行器姿态和目的地信息,输出是对飞行器的引导指令;

(3)根据飞行任务,从终止条件、引导平稳性、飞行器与目的地相对姿态三个方面重塑强化学习奖励函数,重塑奖励函数的具体计算过程如下:

R(st,at,st+1)=T(st+1)+C(at)+F(st,at,st+1)

其中,st为t时刻的强化学习状态,at为t时刻的引导指令,st+1为t+1时刻的强化学习状态,R(st,at,st+1)是重塑后的奖励函数,T(st+1)是终止条件奖励函数,C(at)是引导平滑性奖励函数,F(st,at,st+1)是飞行器姿态重塑奖励函数,如果引导成功,终止条件奖励为正奖励,否则为负奖励;如果引导指令变化,平滑性奖励为负奖励,否则为非负奖励,飞行器姿态重塑奖励计算公式如下:

F(st,at,st+1)=φ(st+1)-φ(st)

其中,φ(st)是关于飞行器在t时刻状态的函数,其计算公式如下:

φ(st)=aD(st)+bO(st)+cH(st)

其中,D(st)为水平距离评价函数,O(st)为朝向评价函数,H(st)为高度评价函数,a,b,c为权重;

(4)在训练模式下,设置飞行器初始姿态,包括三维坐标、俯仰角、朝向角、速度、剩余油量,设置目的地三维坐标、速度和朝向角,设置训练终止条件;

(5)利用深度强化学习的方法,训练引导智能体深度神经网络,在每个训练步长内,根据飞行器当前姿态,生成引导指令,根据指令质量给出重塑后的奖励值,最终引导飞行器沿特定方向到达按动态模型移动的目的地;

(6)经过海量训练后,在应用模式下,根据输入的飞行器姿态和目的地信息,准确地生成引导指令,引导飞行器沿特定方向到达移动目的地。

2.根据权利要求1所述的基于奖励重塑强化学习的飞行器智能引导方法,其特征在于,步骤(1)中,目的地是移动的,具备动态模型。

3.根据权利要求1所述的基于奖励重塑强化学习的飞行器智能引导方法,其特征在于,步骤(4)中,目的地初始信息不仅包含三维坐标信息,还包括朝向信息,目的地在训练中依据其动态模型,位置和朝向不断变化,智能体引导飞行器沿特定方向到达移动目的地。

4.根据权利要求1所述的基于奖励重塑强化学习的飞行器智能引导方法,其特征在于,步骤(6)中,对于计划模式,在飞行任务开始时,根据飞行器初始姿态,生成一系列引导指令进行开环控制;对于实时模式,在飞行器飞行过程中,实时生成引导指令,进行闭环控制。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川大学,未经四川大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201911307975.8/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top