[发明专利]基于雷达高分辨距离像的目标识别方法、装置及介质在审
申请号: | 202110499484.9 | 申请日: | 2021-05-07 |
公开(公告)号: | CN113406623A | 公开(公告)日: | 2021-09-17 |
发明(设计)人: | 杜川;姚灿明;张磊;谢鹏飞 | 申请(专利权)人: | 中山大学 |
主分类号: | G01S13/89 | 分类号: | G01S13/89;G01S13/90;G06K9/62;G06N3/08 |
代理公司: | 广州嘉权专利商标事务所有限公司 44205 | 代理人: | 黎扬鹏 |
地址: | 510275 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 雷达 分辨 距离 目标 识别 方法 装置 介质 | ||
1.一种基于雷达高分辨距离像的目标识别方法,其特征在于,所述方法采用雷达目标识别模型进行识别,所述雷达目标识别模型包括聚类模块、区域分解模块和注意机制模块,所述方法包括以下步骤:
获取包括多种类别的飞机的HRRP训练样本数据集;所述HRRP训练样本数据集中的各个训练样本带有分类标签,所述分类标签用于标记所述飞机的类别信息;
将所述训练样本输入到聚类模块中,得到所述训练样本在特征空间中的非线性映射变换数据;
在所述特征空间中对所述非线性映射变换数据进行聚类,得到多个聚类中心的聚类数据;
将所述训练样本输入到区域分解模块中,得到所述训练样本各个聚类中心的特征数据;
基于所述注意机制模块为所述特征数据分配权重,并根据分配权重后的所述特征数据确定所述训练样本的预测结果;
根据所述预测结果和所述分类标签,确定所述雷达目标识别模型预测的第一损失值,并确定聚类的第二损失值;
根据所述第一损失值和所述第二损失值,对所述雷达目标识别模型的参数进行更新,得到训练好的雷达目标识别模型;
获取待识别的目标飞机的HRRP数据;
将所述HRRP数据输入到训练好的雷达目标识别模型中,得到所述目标飞机的类别识别结果。
2.根据权利要求1所述的基于雷达高分辨距离像的目标识别方法,其特征在于,所述确定聚类的第二损失值,包括:
通过KL散度算法确定聚类的第二损失值。
3.根据权利要求2所述的基于雷达高分辨距离像的目标识别方法,其特征在于,所述根据所述第一损失值和所述第二损失值,对所述雷达目标识别模型的参数进行更新,包括:
根据所述第一损失值和所述第二损失值之和,确定第三损失值;
根据所述第三损失值,对所述雷达目标识别模型的参数进行更新,得到训练好的雷达目标识别模型。
4.根据权利要求1-3中任一项所述的基于雷达高分辨距离像的目标识别方法,其特征在于,所述根据所述预测结果和所述分类标签,确定所述雷达目标识别模型预测的第一损失值,包括:
根据所述预测结果和所述分类标签,通过交叉熵损失函数确定所述雷达目标识别模型预测的第一损失值。
5.根据权利要求1所述的基于雷达高分辨距离像的目标识别方法,其特征在于,所述对所述雷达目标识别模型的参数进行更新,得到训练好的雷达目标识别模型,包括:
若所述参数更新前后,所述预测结果的差异值小于预设阈值,则停止所述雷达目标识别模型的参数更新,得到训练好的雷达目标识别模型。
6.一种基于雷达高分辨距离像的目标识别装置,其特征在于,所述装置采用雷达目标识别模型进行识别,所述雷达目标识别模型包括聚类模块、区域分解模块和注意机制模块,所述装置包括:
第一获取模块,用于获取包括多种类别的飞机的HRRP训练样本数据集;所述HRRP训练样本数据集中的各个训练样本带有分类标签,所述分类标签用于标记所述飞机的类别信息;
输入模块,用于将所述训练样本输入到聚类模块中,得到所述训练样本在特征空间中的非线性映射变换数据;
聚类模块,用于在所述特征空间中对所述非线性映射变换数据进行聚类,得到多个聚类中心的聚类数据;
处理模块,用于将所述训练样本输入到区域分解模块中,得到所述训练样本各个聚类中心的特征数据;
预测模块,用于基于所述注意机制模块为所述特征数据分配权重,并根据分配权重后的所述特征数据确定所述训练样本的预测结果;
计算模块,用于根据所述预测结果和所述分类标签,确定所述雷达目标识别模型预测的第一损失值,并确定聚类的第二损失值;
更新模块,用于根据所述第一损失值和所述第二损失值,对所述雷达目标识别模型的参数进行更新,得到训练好的雷达目标识别模型;
第二获取模块,用于获取待识别的目标飞机的HRRP数据;
识别模块,用于将所述HRRP数据输入到训练好的雷达目标识别模型中,得到所述目标飞机的类别识别结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110499484.9/1.html,转载请声明来源钻瓜专利网。