[发明专利]基于模糊核分类与注意力机制的遥感图像超分辨重建方法有效
申请号: | 202010162533.5 | 申请日: | 2020-03-10 |
公开(公告)号: | CN111369442B | 公开(公告)日: | 2022-03-15 |
发明(设计)人: | 张向荣;焦李成;刘风昇;唐旭;李辰;陈璞花;侯彪;周挥宇 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06T3/40 | 分类号: | G06T3/40;G06V10/762;G06V10/764;G06V10/82;G06K9/62 |
代理公司: | 西安通大专利代理有限责任公司 61200 | 代理人: | 高博 |
地址: | 710071 陕*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 模糊 分类 注意力 机制 遥感 图像 分辨 重建 方法 | ||
1.基于模糊核分类与注意力机制的遥感图像超分辨重建方法,其特征在于,包括以下步骤:
S1、给定某一地区的高分辨率光学遥感图像和对应的低分辨率光学遥感图像,其中包含不同类别的地物;
S2、对给定的图像进行划分构建训练样本和测试样本;
S3、对所有的训练集与测试集中的低分辨率图像寻找图像块间的递归相似关系,通过最大后验概率估计出低分辨率图像的模糊核;
S4、根据低分辨率图像的模糊核对训练集进行聚类;
S5、使用聚类模型对测试集图像进行分类;
S6、基于卷积神经网络进行网络结构设计,选择残差块连接方式作为基本结构,并在其中加入可选择卷积核与通道的注意力机制,可选择卷积核部分包含通道的分离、融合与特征选择操作,构建基于注意力机制的神经网络模型;
S7、将不同的低分辨率图像与其对应的高分辨率图像组成图像对按照划分的类别分别进行训练,损失函数设定为高、低分辨率图像对的均方误差,并在测试集中按照不同类别的图像分别进行测试,得到不同类别的模型;
S8、对输入的低分辨率图像进行模糊核的估计、分类,并重建出高分辨率图像作为输出。
2.根据权利要求1所述的基于模糊核分类与注意力机制的遥感图像超分辨重建方法,其特征在于,步骤S2中,将给定的高分辨率图像划分为M个大小为N×N的图像块,并将对应的低分辨率图像按照各自的分辨率大小进行划分,并从M个高分辨率图像块中随机选取80%以上的图像块与对应的低分辨率图像块作为训练样本,其余的作为测试样本,M≥10000,N≥500。
3.根据权利要求1所述的基于模糊核分类与注意力机制的遥感图像超分辨重建方法,其特征在于,步骤S3中,图像的模糊核为:
其中,矩阵C为约束矩阵,用于限制估计出的模糊核过于尖锐,CT为矩阵C的转置矩阵,σ表示方差值,wij为低分辨率图像块与输入图像中原有的小尺寸低分辨率图像块qi间的均方根误差,qi以向量形式表示图像块,Rj为高分辨率图像块矩阵,为矩阵Rj的转置矩阵,qi为输入图像中原有的小尺寸低分辨率图像块的向量表示。
4.根据权利要求1所述的基于模糊核分类与注意力机制的遥感图像超分辨重建方法,其特征在于,步骤S4中,将所有训练集的模糊核作为样本输入,使用K均值聚类算法将不同图像的模糊核划分为K个类,划分依据使用最小欧式距离进行衡量,聚类完成后得到K个聚类中心,并将模糊核对应的输入高、低分辨率图像对划分为K个类别。
5.根据权利要求4所述的基于模糊核分类与注意力机制的遥感图像超分辨重建方法,其特征在于,不同模糊核间的距离采用最小欧氏距离,最终聚类结果使用损失函数J进行迭代优化,经过迭代得到聚类中心{uk|k=1,2,…,K},损失函数J为:
其中,n为样本容量,xi为输入图像的模糊核。
6.根据权利要求1所述的基于模糊核分类与注意力机制的遥感图像超分辨重建方法,其特征在于,步骤S5中,计算每个测试集中低分辨率图像的模糊核与聚类中心距离,对测试集的模糊核进行划分如下:
其中,xi表示输入图像的模糊核,uk表示聚类中心,Label(i)表示输出的类别。
7.根据权利要求1所述的基于模糊核分类与注意力机制的遥感图像超分辨重建方法,其特征在于,步骤S6中,将跳跃连接作为残差块的基本结构,并添加通道注意力机制以及可选择卷积核的注意力机制,在通道注意力机制中使用通道的压缩、扩增以及全局平均池化操作;在可选择的卷积核注意力机制中,使用不同卷积核间的分离、融合与特征选择部分,分离部分使用多个不同尺寸的卷积核进行卷积,在融合部分采用全连接操作加入了通道的压缩与扩增操作,并在特征通道中加入softmax层,在特征的选择部分,通过选择操作对其中的不同特征层进行加权求和。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010162533.5/1.html,转载请声明来源钻瓜专利网。