[发明专利]基于矩阵分解网络的无监督高光谱图像超分辨率方法在审
申请号: | 202211694714.8 | 申请日: | 2022-12-28 |
公开(公告)号: | CN115861076A | 公开(公告)日: | 2023-03-28 |
发明(设计)人: | 刘建军;张静怡;金迪一;尚艳丽;杨金龙 | 申请(专利权)人: | 江南大学 |
主分类号: | G06T3/40 | 分类号: | G06T3/40;G06V10/80;G06V10/82 |
代理公司: | 哈尔滨市阳光惠远知识产权代理有限公司 23211 | 代理人: | 吕永芳 |
地址: | 214122 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 矩阵 分解 网络 监督 光谱 图像 分辨率 方法 | ||
本发明公开了基于矩阵分解网络的无监督高光谱图像超分辨率方法,属于高光谱图像处理技术领域。本发明对高光谱图像处理,生成模拟的低空间分辨率高光谱图像Y和高空间分辨率的多光谱图像Z;首先将生成的数据对(Y,Z)输入设计的自动编码器网络,训练迭代得到点扩散函数和光谱响应函数;对于目标高空间分辨率高光谱图像X,可以假设为末端成员矩阵A和对应丰度矩阵S的线性组合,即X=AS,结合光谱和空间退化模型进行建模,通过设计的深度CP分解模块计算A,迭代求解A和S,最后得到融合结果。本发明能够得到更加丰富的光谱和空间特征,得到了更好的融合结果,在实践中表现出了良好的性能。
技术领域
本发明涉及基于矩阵分解网络的无监督高光谱图像超分辨率方法,属于高光谱图像处理技术领域。
背景技术
高光谱遥感,即高光谱分辨率遥感,利用成像技术和光谱特征从感兴趣的物体中获取一系列具有高光谱分辨率的连续、窄波段的图像数据。高光谱图像不仅可以提供土地覆盖目标的空间信息,而且还可以提供其丰富的光谱信息。它在地质勘探、气候监测、农作物检测、国防军事等各项领域得到了广泛应用。
高光谱图像分类是遥感应用领域的一项重要任务,近年来,随着深度学习不断发展,基于深度网络的高光谱分类方法也被证实是分类的有效手段之一。有监督的深度学习方法可以看作是从特征空间到标签空间的非线性映射,它能够从原始的数据中提取到更高层次的抽象语义特征。
由于入射能量有限,在设计成像传感器时,在光谱分辨率、空间分辨率和图像的信噪比之间总是存在一个权衡。因此,通常会牺牲HSI的空间分辨率,这阻碍了后续的任务。相反,传统的多光谱图像(MSI)在更低的光谱分辨率下可以获得更高的空间分辨率。一种经济的HSI超分辨率解决方案是记录低空间分辨率的HSI(LR-HSI)和高空间分辨率的MSI(HR-MSI),并将它们融合为目标高空间分辨率的HSI(HR-HSI)。高光谱图像超分辨率解决方案打破了成像传感器的局限性,在实践中表现出了良好的性能。
高光谱遥感图像(HSI)通常具有高光谱分辨率和低空间分辨率。相反,多光谱图像(MSI)通常具有低光谱和高空间分辨率。将HSI和MSI的高光谱和高空间分辨率相结合的图像推断问题是一个数据融合问题,也即高光谱图像超分辨率,高光谱图像中包含丰富的光谱细节有利于各种计算机视觉任务,如人脸识别、目标跟踪和建模等。
现有的高光谱图像超分辨率方法主要包括:组件替换(CS)、多分辨率分析(MAR)、基于模型驱动方法和基于深度学习的方法。然而,这些方法无法同时获取丰富的光谱特征和空间特征,因此最终的融合效果不佳。
发明内容
为了解决获得更多的空间特征和光谱特征,提升融合效果问题,本发明提供了一种高光谱图像超分辨率方法,包括:
步骤1:对高光谱图像处理,生成模拟的低空间分辨率高光谱图像Y和高空间分辨率的多光谱图像Z,作为训练数据;
步骤2:将步骤1生成的数据对(Y,Z)输入自动编码器网络,训练迭代得到点扩散函数B和光谱响应函数R;
步骤3:对于目标图像高空间分辨率高光谱图像X,假设为末端成员矩阵和对应丰度矩阵的线性组合;将初始末端成员矩阵A0和初始丰度矩阵S0作为可训练参数,将步骤2中估计的B和R输入深度CP分解网络,通过深度CP分解网络求解期望末端成员矩阵A;
步骤4:结合步骤2中得到的点扩散函数B和光谱响应函数R,并结合退化模型和矩阵分解模型,对目标进行建模,设计正则项,通过网络展开迭代求解末端成员矩阵A和对应丰度矩阵S,最终得到融合的图像。
可选的,所述步骤2具体包括:
步骤2.1:所述低空间分辨率高光谱图像Y和高空间分辨率的多光谱图像Z的退化模型被分别建模为:
Z=RX+Nm,Y=XB+Nh
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江南大学,未经江南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211694714.8/2.html,转载请声明来源钻瓜专利网。