[发明专利]一种基于迁移学习的装备车辆路径规划方法有效
申请号: | 201910327893.3 | 申请日: | 2019-04-23 |
公开(公告)号: | CN110631596B | 公开(公告)日: | 2020-06-02 |
发明(设计)人: | 张昊;孙玉洁;张勇;张聪姗 | 申请(专利权)人: | 太原理工大学 |
主分类号: | G01C21/34 | 分类号: | G01C21/34 |
代理公司: | 太原晋科知识产权代理事务所(特殊普通合伙) 14110 | 代理人: | 任林芳 |
地址: | 030024 *** | 国省代码: | 山西;14 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 迁移 学习 装备 车辆 路径 规划 方法 | ||
本发明属于车辆的路径规划技术领域,具体是一种基于迁移学习的装备车辆路径规划方法。包括以下步骤,S1~获取装备车辆的基础数据,S2~获取规划时间及规划目标;S3~获取静态规划环境数据,S4~获取装备车辆行驶数据,S5~利用DDPG算法构建路径规划模型,S7~获取动态规划环境的参数变化数据;S8~构建动态规划环境域;S9~微调深度神经网络的参数,S10~将训练好的网络参数作为路径规划算法的输入,通过实时获取战中的地形、情报数据,不停调整规划策略,生成装备车辆的路径规划结果。S11~通过不同战中动态规划环境可得到不同战场环境的路径规划结果,将路径规划结果及其对应的网络训练参数作为历史样本。
技术领域
本发明属于车辆的路径规划技术领域,具体是一种基于迁移学习的装备车辆路径规划方法。
背景技术
装备车辆的路径规划问题一直在被学者研究,从简单的静态路网规划到复杂场景下的动态规划,路径规划的模型算法不断改进升级。装备车辆的路径规划不仅考虑装备车辆自身约束,包括装备长、宽、承重、转弯半径、涉水能力、越障能力、爬坡能力的固有约束,而且考虑复杂场景,尤其是战时多变的地形、气象环境对路径规划问题的约束,需要通过多种因素及匹配参数来控制输出合理路径。基于深度强化学习的DDPG算法能够很好的解决静态环境下基于多约束的路径规划问题,如何通过自主学习自动处理变换战时环境的动态路径规划问题,是本领域预解决的问题。
传统的路径规划算法,例如A*算法、D*算法、人工势场法、RRT算法,仅从已有拓扑结构的地图中,依据路径权重规划目标路径。然而,就装备车辆的路径规划而言,需要根据装备车辆、地形、气象多种约束进行路径规划,DDPG算法能够通过深度神经网络对路径规划算法进行预训练,得到静态环境下装备行驶所需的最优参数。
在实际的战中机动规划系统中,面临的战场环境多为动态变化的环境,不仅战中地形对装备车辆行驶影响较大,敌火力封锁区、核生化污染区的建立、销毁会导致装备车辆改道的可能。此时静态的DDPG算法由于预训练需要耗费大量时间,难以满足战中情况随时突发、计划临机改变的实时性要求。
发明内容
本发明为了解决上述问题,提供一种基于迁移学习的装备车辆路径规划方法。
本发明采取以下技术方案:一种基于迁移学习的装备车辆路径规划方法,包括以下步骤,
S1~获取装备车辆的基础数据,包括装备车辆的长、宽、高以及承重基础参数。
S2~获取规划时间及规划目标;战中行军设置有最晚到达时间,通过不同的规划目标,包括地表距离最短、时间最短、风险最小以及油耗最少,逆推通过各关键点的时间点及可休息时间,进而计算装备车辆的最晚出发时间。
S3~获取静态规划环境数据,包括影响装备车辆行驶的地表数据、地形数据以及气象数据。
S4~获取装备车辆行驶数据,基于已获取的地表地形数据以及特定气象数据,获取相应装备车辆的行驶数据,包括载重行驶速度、转弯半径、越障高度以及爬坡能力,为路径规划的每一路段的代价距离计算做数据准备;
S5~利用DDPG算法构建路径规划模型,通过装备车辆基础数据、规划时间及规划目标、静态规划环境数据、装备车辆行驶数据建立路径规划代价函数,利用深度神经网络的预训练得到代价函数中各约束条件的参数。
S6~构建静态规划环境域,环境域即实地的栅格地图;
S7~获取动态规划环境的参数变化数据;通过战场情报相关传感器将地形、气象、路况检测数据回传指挥控制系统,实时检测地形参数q地,气象条件参数q气,敌火力干扰下安全通行参数q敌,第i个路段的风险参数Ri,路况参数q路况,路段载重参数q载重的变化。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于太原理工大学,未经太原理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910327893.3/2.html,转载请声明来源钻瓜专利网。