[发明专利]一种基于卷积神经网络的空间非合作目标角速度测量方法有效
申请号: | 202011176669.8 | 申请日: | 2020-10-28 |
公开(公告)号: | CN112327317B | 公开(公告)日: | 2023-09-22 |
发明(设计)人: | 郑子轩;马川;安效民 | 申请(专利权)人: | 西北工业大学深圳研究院;西北工业大学 |
主分类号: | G01S17/08 | 分类号: | G01S17/08;G01S7/48;G06N3/0464;G06N3/08 |
代理公司: | 西安通大专利代理有限责任公司 61200 | 代理人: | 李红霖 |
地址: | 518057 广东省深圳市南山区高*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 卷积 神经网络 空间 合作 目标 角速度 测量方法 | ||
本发明公开了一种基于卷积神经网络的空间非合作目标角速度测量方法,属于航天领域。本发明利用仿真法生成训练数据,训练卷积神经网络,得到训练好的卷积神经网络;将激光测距雷达测到的原始距离数据进行预处理,将预处理完毕的原始距离数据输入到训练好的卷积神经网络中,得到非合作目标的角速度;预处理的具体过程为:将原始距离数据矩阵中所有元素进行重新排列,对于第i行、第j列的元素,若将其移动到第(2i‑1)行,否则移动到第2(N‑i+1)行;若将其移动到第(2j‑1)列,否则移动到第2(M‑j+1)列。本发明极大地增强了卷积神经网络的识别能力,进而提高对非合作目标角速度的测算精度。
技术领域
本发明属于航天领域,尤其是一种基于卷积神经网络的空间非合作目标角速度测量方法。
背景技术
随着人类对太空探索和开发的规模的扩大,对空间非合作目标进行在轨服务的需求也日益增长。空间非合作目标主要包括在轨的故障或失效卫星和各种空间碎片,对其进行在轨服务有两方面的重要意义:其一,对于故障或失效卫星,对其进行维修、燃料加注等在轨服务,可以大幅延长其在轨寿命,显著降低空间探索与开发任务的成本;其二,对于占据重要轨道的空间碎片进行清除或回收,可以降低卫星与碎片碰撞的风险,提高空间环境的安全性。
对空间翻滚目标进行在轨服务的关键在于对其进行安全地捕获或对接。由于空间环境中空气阻力很小,空间非合作目标在初始角动量的影响下通常处于失控的自由翻滚状态。为避免在捕获或对接过程中出现碰撞造成损害,需要在接触前对非合作目标的姿态角和角速度等运动状态进行精确的测量。由于绝大部分非合作目标都没有明显的可识别特征点,因此,当前主流的基于特征的方法都无法胜任这类任务。对于无需明显识别特征点的方法,主要有基于相机的图像数据和基于激光测距雷达的距离数据两类。基于相机的姿态测量方法对光照环境依赖性很强,实际应用场景有限。因此,基于激光测距雷达的非接触式姿态测量方法是非合作目标在轨服务任务中的首选。然而,传统的基于激光测距雷达的测算方法往往需要先重构目标的三维模型,因此这类算法不但耗时很长,精度也往往难以保证。
近年来,以卷积神经网络为代表的人工智能技术为大幅提升非接触式姿态测量方法的精度和效率提供了可能。然而,卷积神经网络通常被用于处理图像数据,在被直接用于处理激光测距雷达数据时,往往不能准确提取数据的关键特征,很容易出现欠拟合或过拟合的现象,因此很难在实际中应用。
发明内容
本发明的目的在于克服卷积神经网络在处理激光测距雷达原始数据时易出现欠拟合或过拟合的缺点,从而提供一种基于卷积神经网络的空间非合作目标角速度测量方法。
为达到上述目的,本发明采用以下技术方案予以实现:
一种基于卷积神经网络的空间非合作目标角速度测量方法,利用仿真法生成训练数据,训练卷积神经网络,得到训练好的卷积神经网络;
将激光测距雷达测到的原始距离数据进行预处理,将预处理完毕的原始距离数据输入到训练好的卷积神经网络中,得到非合作目标的角速度;
预处理的具体过程为:
将原始距离数据矩阵中所有元素进行重新排列,对于第i行、第j列的元素,若将其移动到第(2i-1)行,否则移动到第2(N-i+1)行;若将其移动到第(2j-1)列,否则移动到第2(M-j+1)列;
其中,1≤i≤N,1≤j≤M,N为原始距离数据矩阵的总行数,M为总列数。
进一步的,包括以下步骤:
S1、根据激光测距雷达的原始距离数据维度,构造一个卷积神经网络;
S2、根据所述卷积神经网络的结构,通过计算机仿真生成训练数据;
S3、使用训练数据对卷积神经网络的权重进行训练;
S4、将激光测距雷达测量得到的原始距离数据进行预处理;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学深圳研究院;西北工业大学,未经西北工业大学深圳研究院;西北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011176669.8/2.html,转载请声明来源钻瓜专利网。