[发明专利]基于深度迁移学习的直推式雷达高分辨距离像识别方法有效
申请号: | 201810932270.4 | 申请日: | 2018-08-16 |
公开(公告)号: | CN109117793B | 公开(公告)日: | 2021-10-29 |
发明(设计)人: | 黄悦;丁兴号;余宪;王继天;文艺 | 申请(专利权)人: | 厦门大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06N3/08 |
代理公司: | 厦门南强之路专利事务所(普通合伙) 35200 | 代理人: | 马应森 |
地址: | 361005 *** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 迁移 学习 直推式 雷达 分辨 距离 识别 方法 | ||
基于深度迁移学习的直推式雷达高分辨距离像识别方法,涉及雷达信号处理。真实目标信号与辅助仿真数据的预处理;深度模型的选择及优化;直推式迁移策略的应用。针对完备的高分辨距离像数据获取困难的实际问题,提出了基于深度迁移学习的目标识别框架,可以有效提高样本量少、姿态非完备的雷达高分辨距离像的识别性能。建立在深度学习与机器学习中迁移学习的基础上,实用性强,可移植性强,能够满足大多数小样本、非完备等情况下弱监督学习的需求。
技术领域
本发明涉及雷达信号处理,尤其是涉及基于深度迁移学习的直推式雷达高分辨距离像识别方法。
背景技术
雷达自动识别技术作为决定武器系统是否智能化的核心技术之一,在现代战争中起着重要的作用。高分辨一维距离像作为有效的目标识别数据源,获取较为容易、存储较为方便,被广泛应用于雷达目标自动识别中。但由于信号本身具有姿态敏感性、平移敏感性、强度敏感性等问题,特征提取成为雷达高分辨率距离像目标识别问题中的关键技术。深度学习利用端到端的多层非线性映射,通过大量数据可以自适应地学习到目标鲁棒的、可辨识的特征,在各类识别任务中均超越了传统算法的性能。然而实际应用中难以获取到完备的目标信号,一定程度上限制了深度学习算法在雷达高分辨率距离像识别上的应用。
非完备雷达高分辨距离像识别研究对于提升数据不足、信息不全情况下模型的泛化性、鲁棒性和可靠性具有重大的意义,具有广阔的应用前景以及深刻的社会价值。目前主流的基于深度学习的雷达高分辨距离像识别方法虽然在仿真数据上取得了良好的效果,但是在真实信号上反应的情况会有出入,很难应用到实际当中。在此背景下,我们提出了基于深度迁移学习的雷达高分辨距离像识别方法,能够充分利用辅助仿真数据和少量完备的真实目标信号,有效提升模型在非完备目标上的识别性能。
发明内容
本发明的目的在于提供可提升雷达高分辨距离像在样本量少、姿态非完备情况下的目标识别性能,满足实际应用需求,更具实际应用价值的基于深度迁移学习的直推式雷达高分辨距离像识别方法。
本发明包括以下步骤:
1)真实目标信号与辅助仿真数据的预处理;
2)深度模型的选择及优化;
3)直推式迁移策略的应用。
在步骤1)中,所述真实目标信号与辅助仿真数据的预处理的具体步骤可为:
第一步:为了降低强度敏感性以及离群点等问题对算法带来的影响,对雷达高分辨距离像信号数据进行归一化:
其中,x为原始的一维雷达高分辨距离像信号,ave(max5(x))和ave(min5(x))分别为取其帧内五个最大值和最小值的平方,x*为归一化后的信号数据;
第二步:为了解决仿真数据与真实信号维度有差异的问题,首先对真实信号的边缘部分进行统计,并根据其分布特性生成拼接于仿真数据目标周围的噪点(边缘部分),使其维度与真实雷达高分辨距离像一致;
在步骤2)中,所述深度模型的选择及优化的具体步骤可为:
第一步:为了降低姿态敏感性、平移敏感性、强度敏感性等问题的影响,构建具有局部感受野、权重共享、多卷积核以及池化等特点的多层卷积神经网络,所述多层卷积神经网络仿照AlexNet[1]设计五个卷积层以及包括分类器在内的三个全连接层,每两个卷积层之间有最大池化的操作,可进一步增加特征的平移、旋转不变性,降低特征维度,提高特征的鲁棒性和模型的泛化能力;
第二步:为了保证网络中每个神经元输入输出的差异性,促使模型稳定而快速的收敛,采用经典而有效的标准正态分布初始化方法,即使用均值为0,标准差为1的正态分布随机生成参数作为网络卷积核的初始化,并使用大于0小于1的小数随机生成参数作为网络偏置的初始化;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于厦门大学,未经厦门大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810932270.4/2.html,转载请声明来源钻瓜专利网。