[发明专利]一种基于多任务DCGAN的SAR图像分类方法有效
申请号: | 202110186968.8 | 申请日: | 2021-02-16 |
公开(公告)号: | CN113033609B | 公开(公告)日: | 2022-11-29 |
发明(设计)人: | 张征;杜阳 | 申请(专利权)人: | 浙江大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/82;G06V20/10;G06N3/04;G06N3/08 |
代理公司: | 杭州中成专利事务所有限公司 33212 | 代理人: | 周世骏 |
地址: | 310058 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 任务 dcgan sar 图像 分类 方法 | ||
本发明涉及图像处理技术领域,旨在提供一种基于多任务DCGAN的SAR图像分类方法。包括步骤:构建多任务DCGAN网络框架;对原始SAR数据进行合理表征;生成训练数据集和测试数据集;训练多任务DCGAN;对测试SAR图像数据集进行地物分类并计算评价指标。本发明的DCGAN网络能够协同处理生成任务、重构任务、分类任务。能够同时判断图像真假、捕获其低维流形稀疏特征、并用编码的稀疏特征进行图像分类,克服了通过DCGAN网络对SAR图像进行分类时特征信息不全面问题,缓解了模式坍塌问题。对于多任务DCGAN网络结构,自适应损失函数权值参数能在网络训练过程中被自动学习。因此克服了现有技术中模式坍塌或训练不稳定的问题,使SAR图像分类精度得以提高。
技术领域
本发明属于图像处理技术领域,更进一步涉及雷达图像分类技术领域中的基于多任务DCGAN(深度卷积生成对抗网络,Deep Convolutional Generative AdversarialNetwork)的SAR(合成孔径雷达)图像分类方法。本发明可用于对SAR图像中的地物目标进行分类。
背景技术
随着合成孔径雷达(SAR)图像数据资源的不断丰富,SAR图像解译变得更为重要。然而,相比SAR成像技术的快速发展,现有的SAR图像解译技术发展相对滞后。SAR图像分类通过分析获取地物后向散射信号来提取地物类别信息,是SAR图像解译的重要内容,在农业植被调研、资源勘测、海洋环境监测等众多应用中都涉及到SAR图像分类技术。考虑到SAR图像特殊的成像机理,使得光学遥感图像分类算法在SAR图像上往往难以取得优异的效果。SAR图像分类关键问题包括以下两个方面:(1)有效的特征表达;(2)鲁棒的分类器。
传统的SAR图像特征提取算法主要分为以灰度共生矩阵(Gray-Level Co-occurrence Matrix,GLCM)、马尔可夫随机场(Markov Random Fields,MRF)、基于形态学闭运算、统计建模等空间域特征提取算法,以小波、曲波、轮廓波等为代表的多尺度几何分析(Multi-scale Geometric Analysis,MGA)的变换域特征提取算法以及以相干目标分解、非相关目标分解的极化特征提取算法。上述传统方法需要依赖人工经验,对不同数据、不同地物目标的适应性较差。近年来深度学习作为一种自动提取特征的手段,为SAR图像分类提供了新的思路。
以堆叠自动编码器、深度置信网络、深度卷积网络、生成对抗网络等的深度学习框架都被应用于SAR图像分类问题中,在上述深度学习网络中,生成对抗网络作为一种生成模型,可以捕获图像的高阶统计特征,被广泛用于特征工程中,但是其固有的模式坍塌、训练不稳定问题可能会造成特征不能有效表达。在SAR图像分类的特征提取中,可能出现类间特征模糊,类内特征差异大的特点,进而影响对地物的准确识别,降低分类精度。
发明内容
本发明要解决的技术问题是,克服现有技术中存在的不足,提出一种基于多任务DCGAN(深度卷积生成对抗网络)的SAR(合成孔径雷达)图像分类方法。
为解决技术问题,本发明的解决方案是:
提供一种基于多任务DCGAN的SAR图像分类方法,包括以下步骤:
(1)构建多任务DCGAN网络框架
构建内容包括:对抗任务模块、分类任务模块、自编码任务模块,及多任务GAN的自适应损失函数。
(2)对原始SAR数据进行合理表征
包括:对于单极化数据,采用幅度或强度进行表征;对于极化数据,采用水平-水平、水平-垂直、垂直-垂直三种极化的幅度、强度或者极化分解得到的相应物理量进行表征;
(3)生成训练数据集和测试数据集
包括:采用滑窗法生成SAR图像每个像素点的切片图像;对每种地物类别随机取10%的切片图像数据作为训练集,其余数据作为测试集;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110186968.8/2.html,转载请声明来源钻瓜专利网。