[发明专利]基于生成对抗网络的高光谱异常检测方法有效
申请号: | 201710896978.4 | 申请日: | 2017-09-28 |
公开(公告)号: | CN107563355B | 公开(公告)日: | 2021-04-02 |
发明(设计)人: | 赵春晖;李雪源;闫奕名;宿南;朱海峰 | 申请(专利权)人: | 哈尔滨工程大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 150001 黑龙江省哈尔滨市南岗区*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 生成 对抗 网络 光谱 异常 检测 方法 | ||
本发明提供的是一种基于生成对抗网络的高光谱异常检测方法。1、构建符合高光谱图像数据特点的网络模型,2、使用高光谱数据集作为训练样本,训练出一个符合高光谱数据统计特性的概率模型,3、利用训练完成的判别器来计算待测像元属于真实高光谱数据集的概率,4、计算高光谱数据集中的每个像元的异常检测结果。本发明利用生成对抗网络的思想,训练出符合高光谱图像数据特征的概率模型,该模型能够生成符合真实高光谱数据集整体统计特性的生成数据集,并且能够判断一个像元属于高光谱数据集的概率。本发明不需要对高光谱数据集的特征进行模型假设,能够直接估计出符合待测高光谱数据统计特性的概率模型,使检测结果更加可靠。
技术领域
本发明涉及的是一种高光谱图像的异常检测方法。
背景技术
高光谱遥感图像具有丰富的光谱信息。它在目标识别、分类、提取感兴趣目标信息领域具有很大的优势。高光谱异常检测是一种无监督的方法,该技术不需要目标和背景的先验信息,能够找出不同光谱之间与周围背景明显偏差的异常目标。在大多数情况下,目标和背景的先验信息很难获得,所以无监督的异常检测技术在实际应用中具有重要意义。
在传统的RX异常检测中,通常假设高光谱数据的特征服从高斯正态分布,然后通过构建一个高斯正态分布的假设模型来估计像元属于异常点的概率。然而,由于高光谱数据的高维特性,高光谱数据集的特征通常不符合任何理想状态的数学分布,高斯正态分布很难有效地估计出高光谱数据的分布,从而导致异常检测结果的精确度较低。还有一些基于高光谱异常检测的研究中,假设高光谱图像具有非线性特性,然后对高光谱数据做非线性映射,从而达到增强目标和背景之间差异性的目的。如以RX异常检测为基础的核RX异常检测算法(Kernel RX,KRX)能够将高光谱数据映射到核空间,能够有效的分离目标和背景。此外,还有基于流形学习的高光谱图像异常检测方法(如:局部线性嵌入Locally LinearEmbedding,LLE)能够获得高光谱数据的流形特征,也是一种现今比较流行的高光谱异常检测方法。但是,KRX和LLE异常检测算法都是以RX为基础,所构建的假设模型都是基于高斯正态分布的。在最近的研究中,稀疏和低秩(Sparse and Low-rank,SL)被应用于高光谱异常检测方法,这个方法是一种以稀疏和低秩特性构成的假设模型。假设图像的背景信息具有低秩特性(由于背景具有很强的相关性),而异常目标具有稀疏特性(由于异常目标是小概率事件)。
发明内容
本发明的目的在于提供一种检测性能高并能用于检测高光谱图像中变化的目标的基于生成对抗网络的高光谱异常检测方法。
本发明的目的是这样实现的:
步骤(1):构建符合高光谱图像数据特点的网络模型,
网络模型由生成器G和判别器D两个网络构成,生成器G和判别器D都是由三层神经网络组成,分别为输入层、隐含层和输出层,其中判别器D是一种典型的用于二分类的网络结构,输出层只有一个单元,判别器D能够得到待测数据是否真实的概率;生成器G能够通过输入的随机噪声生成与真实高光谱数据集同维度的生成数据集;
步骤(2):使用高光谱数据集作为训练样本,训练出一个符合高光谱数据统计特性的概率模型,
使用高光谱数据集作为训练样本,结合步骤(1)构建的网络模型,通过生成器G和判别器D的交替训练,训练生成器G使生成数据集G的分布无限接近于真实的高光谱数据集X,即使生成器D认为数据集G中的样本为‘真’;训练判别器D区分数据集G和X;
步骤(3):利用训练完成的判别器来计算待测像元属于真实高光谱数据集的概率,
当两个模型达到稳态时,整个网络模型是一种符合高光谱数据统计规律的概率模型,生成的数据集G是一组符合真实高光谱数据统计规律的新样本集合,判别器计算出待测样本符合高光谱数据集统计规律的概率;
步骤(4):计算高光谱数据集中的每个像元的异常检测结果,
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工程大学,未经哈尔滨工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710896978.4/2.html,转载请声明来源钻瓜专利网。