[发明专利]一种基于自适应稀疏保持投影的一维距离像识别方法有效
申请号: | 201710172849.0 | 申请日: | 2017-03-22 |
公开(公告)号: | CN107085206B | 公开(公告)日: | 2020-02-28 |
发明(设计)人: | 戴为龙;张弓;刘文波;陆晓明 | 申请(专利权)人: | 南京航空航天大学 |
主分类号: | G01S7/41 | 分类号: | G01S7/41;G01S13/89;G06K9/00;G06K9/46;G06K9/62 |
代理公司: | 江苏圣典律师事务所 32237 | 代理人: | 贺翔;徐晓鹭 |
地址: | 210016 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 自适应 稀疏 保持 投影 距离 识别 方法 | ||
本发明公开一种基于自适应稀疏保持投影的一维距离像识别方法,首先,对实测一维距离像(HRRP)信号样本提取归一化幅度特征并进行平移对齐;由稀疏保持投影法对训练样本幅度特征进行稀疏重构,建立稀疏重构方程,得到稀疏系数矩阵;对稀疏保持投影方程进行改写并结合自适应最大间距准则,建立自适应稀疏保持投影方程,得到投影矩阵;最后,通过投影矩阵将样本投影到低维空间,得到低维空间特征向量对目标进行分类识别。本发明基于稀疏保持投影和自适应最大间距准则,充分利用样本稀疏重构关系中包含的识别信息结合自适应最大间距准则提取样本低维特征,在一定程度上提高了一维距离像信号的识别精度、降低了特征维度,抗干扰性也得到明显增强。
技术领域:
本发明涉及一种雷达一维信号识别的方法,尤其涉及一种在干扰环境下快速准确识别雷达目标一维距离像的技术。
背景技术:
随着雷达自动目标识别技术的广泛运用,人们对于雷达识别精度、实时性和抗干扰性的要求越来越高,而一般的雷达目标二维像如SAR、ISAR由于其自身成像机理的原因在获取、储存和应用时数据量较大,处理耗时较长成为其实用过程中的一大障碍。雷达高分辨率一维距离像(HRRP)作为一种一维信号,由目标散射中心向雷达反射的回波所构成,其反映了目标的结构特征中的散射点中心强度、散射体中心位置、目标大小等信息,对目标识别具有重要价值,而由于其一维信号的特性,对储存和处理的要求相对较低,现已成为最具实际应用价值的雷达自动目标识别方案。
虽然HRRP相对雷达二维图像数据量较小,然而由于目标尺寸大小和雷达分辨率的影响,如今的雷达HRRP信号越来越精细,维度也越来越高;此外,由于其对方位角敏感,每个雷达目标需要获取许多不同方位的HRRP信号对其进行识别,因此研究HRRP信号低维且易于识别的特征至关重要。为此国内外学者进行了长期的探索,提出了主成分分析(PCA)、线性判别分析(LDA)、最大散射差异(MSD)等众多降维方法。然而这些传统特征提取方法都假设数据的结构位于线性子空间上,忽视了数据集的非线性结构。非线性流行学习算法可以保留保存数据降维后的局部领域结构信息,因此可以较好地处理非线性结构数据。然而,这些方法在原始数据和降维数据集间没有显式投影矩阵导致新特征样本脱离了训练数据集而不能直接处理,其不适合用于雷达目标识别。近年来,一些线性流行学习算法的提出解决了这个问题,如局部保持投影(LPP)、稀疏保持投影(SPP)等,这些方法不仅可以保留局部特征还可以方便的处理提取的新特征样本。
本发明提出一种基于自适应稀疏保持投影的一维距离像识别方法实现低维特征提取达到雷达在干扰环境下的稳健识别。由于结合了稀疏保持投影和自适应最大间距准则,在维数较低的情况下提取信号易于识别的特征,控制了计算量的同时提高了识别精度。后期通过线性支持向量机来达到分类目的,相比经典的低维特征提取算法达到了更好的识别精度,对噪声的鲁棒性也得到提高。
发明内容:
发明目的:本发明的目的是提供一种雷达一维距离像信号高效稳健识别的方案,能够以低维特征获得满意的识别精度,该算法识别阶段耗时短且鲁棒性得到提高。
为了达到上述目的,本发明的技术方案是这样实现的:
一种基于自适应稀疏保持投影的一维距离像识别方法,其特征在于,步骤如下:
训练阶段
第1步:对训练样本集X=[x1,x2,...,xn],提取其归一化频谱幅度特征集并进行平移对齐,得到平移对齐后的特征集H=[h1,h2,...,hN];
第2步:由稀疏保持投影法对以上特征进行稀疏重构,建立稀疏重构方程,得到稀疏系数矩阵R;
第3步:由稀疏保持投影法得到稀疏保持投影方程,结合自适应最大间距准则对其进行改写,建立自适应稀疏保持投影方程;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京航空航天大学,未经南京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710172849.0/2.html,转载请声明来源钻瓜专利网。