[发明专利]一种基于复数卷积网络的SAR图像目标识别方法有效
申请号: | 202110696408.7 | 申请日: | 2021-06-23 |
公开(公告)号: | CN113420659B | 公开(公告)日: | 2022-12-30 |
发明(设计)人: | 李婉萍 | 申请(专利权)人: | 中国电子科技集团公司第十四研究所 |
主分类号: | G06V20/00 | 分类号: | G06V20/00;G06V10/40;G06V10/764;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 南京知识律师事务所 32207 | 代理人: | 康翔;高娇阳 |
地址: | 210039 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 复数 卷积 网络 sar 图像 目标 识别 方法 | ||
本发明公开了一种基于复数卷积网络的SAR图像目标识别方法,将多幅复数图像输入到训练集和测试集中,获取训练样本和测试样本,构建和训练复数卷积网络,提取复数数据实部和虚部之间的耦合特征,克服了只使用模值、没有利用虚部的不足,用更多的信息进行目标识别处理,采用识别率来作为比较标准,提高了识别结果的准确率。
技术领域
本发明属于图像识别技术领域,具体涉及一种卷积运算技术。
背景技术
识别技术在工业界有着广泛的应用,例如医学影像、雷达探测、遥感地图、计算机视觉领域等。在分辨率需求和技术水平越来越高的同时,获得的数据也越来越复杂。例如,SAR图像的原始数据为复数,高光谱图像的原始数据是多维数据等。
目前,大多数SAR图像目标识别方法,都是基于将数据作为实数的图像来进行。对于原始数据为复数的SAR图像,常见的数据处理方法为:先将复数图像进行求模值处理,转为实数图像;再利用基于实数图像的目标识别方法,进行目标识别。这种处理方法导致复数图像丢失了一部分的信息,影响最终的目标识别结果。
现有技术基于深度卷积网络,利用神经网络,实现了对机载探地雷达目标的识别。训练过程中可自动提取更新网络的参数,减少处理过程中的人工干预,卷积模型能够提取目标不同层级的二位滤波器特征,提高了机载探地雷达目标信号识别的准确度。
但是,只利用模值训练网络完成目标识别,忽略雷达信号原始数据中虚部包含的相位信息,限制了最后得到的目标识别准确度。
发明内容
本发明为了解决现有技术存在的问题,提出了一种基于复数卷积网络的SAR图像目标识别方法,充分利用SAR图像中包含的信息,将原始SAR图像中包含的幅度信息与相位信息同时加入特征提取步骤,提高目标识别的准确率,为了实现上述目的,本发明采用了以下技术方案。
输入图像:将多幅复数图像及其对应的类别标签输入到训练集中,将与训练集中不同的多幅复数图像输入到测试集中。
获取训练样本和测试样本:将训练集中复数图像的实部和虚部对应分开保存,得到实部训练样本和虚部训练样本;将测试集中复数图像的实部和虚部对应分开保存,得到实部测试样本和虚部测试样本。
构建复数卷积网络:采用双层复数卷积层、复数批归一化层和全链接层,双层复数卷积层包含两个复数卷积层,每个复数卷积层包含复数卷积、复数批归一化和CReLU激活函数,复数批归一化层包含复数批归一化和CReLU激活函数。
训练复数卷积网络:初始化复数卷积网络,设定复数卷积网络中所有出现的复数参数为W,将实部训练样本和虚部训练样本输入两个复数卷积层,经过复数批归一化和CReLU激活函数,使用300维的全链接层,输出初始化类别标签;将训练集中的复数图像的类别标签与初始化类别标签对比,采用批量随机梯度下降法,将复数卷积网络的参数迭代更新3000次,得到更新的复数卷积网络;
测试复数卷积网络:将实部测试样本和虚部测试样本输入更新的复数卷积网络,使用300维的全链接层,得到测试集中复数图像的类别标签。
进一步的,使用参数为σ的瑞利分布,初始化复数参数W的模值,设定输入样本数Nin、输出样本数Nout,使用-π到π之间的均匀分布,初始化参数W的相位。
进一步的,复数卷积的卷积核为1×3维的复数。
进一步的,复数批归一化采用公式表示,其中BN(·)表示复数批归一化操作,表示复数数据,表示尺度系数,采用2×2的半正定矩阵,β表示偏置,采用两个学习度的复参数。
进一步的,CReLU激活函数采用公式表示,其中CReLU(·)表示CReLU激活函数,z表示复数,ReLU(·)表示ReLU函数,表示复数z的实部,i表示虚数单位,表示复数z的虚部。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国电子科技集团公司第十四研究所,未经中国电子科技集团公司第十四研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110696408.7/2.html,转载请声明来源钻瓜专利网。