[发明专利]基于奇异值分解和空谱域注意力机制高光谱图像分类方法有效
申请号: | 202010117283.3 | 申请日: | 2020-02-25 |
公开(公告)号: | CN111353531B | 公开(公告)日: | 2023-03-28 |
发明(设计)人: | 马文萍;李龙伟;朱浩;武越;周晓波 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V10/764;G06V10/82;G06N3/0464;G06N3/088;G06N3/048;G06N3/047 |
代理公司: | 西安通大专利代理有限责任公司 61200 | 代理人: | 高博 |
地址: | 710071 陕*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 奇异 分解 空谱域 注意力 机制 光谱 图像 分类 方法 | ||
本发明公开了一种基于奇异值分解和空谱域注意力机制高光谱图像分类方法,从数据集中读入高光谱图像,其中包括三个广泛使用的高光谱图像数据集,即Indian Pines数据集,Pavia University数据集和Salinas Valley数据集,选择任一种且对应只有部分区域的类标ground truth图进行处理;对样本进行粗处理,构造基于奇异值分解卷积网络的无监督特征提取模型;按照训练集:验证集:测试集=10%:10%:80%的方式,选取训练集、验证集和测试集;对样本进行细处理,构造基于空谱域注意力机制网络的双支路分类模型;利用训练数据集对分类模型进行训练,得到训练好的分类模型;利用训练好的分类模型对测试数据集进行分类,得到测试数据集中每个像素点的类别。本发明提高了高光谱图像分类的精度与速度。
技术领域
本发明属于图像处理技术领域,具体涉及一种基于奇异值分解和空谱域注意力机制高光谱图像分类方法。
背景技术
高光谱遥感对地观测技术被广泛的应用在很多不同的领域,例如矿业、天文学、化学成像、农业、环境科学、荒地火灾跟踪和生物威胁检测等。高光谱图像分类技术是高光谱遥感对地观测技术的一项重要内容,其具体任务是对高光谱图像中的每一个像素所代表的目标进行分类。然而由于高光谱图像存在高维特性,谱间相似性及可训练样本少等问题,高光谱图像分类技术面临一系列的挑战。
注意力机制和人类的视觉注意力很相似,人类的注意力是人类视觉所特有的大脑信号处理机制。人类通过快速扫描全局图像,获得需要重点关注的目标区域,得到注意力焦点,而后对这一区域投入更多注意力,以获取更多所需要关注目标的细节信息,从而抑制其他无用信息。这是人类利用有限的注意力资源从大量信息中快速筛选出高价值信息的手段,是人类在长期进化中形成的一种生存机制,极大地提高了视觉信息处理的效率与准确性。深度学习中的注意力机制从本质上讲和人类的选择性视觉注意力机制类似,目的也是从众多信息中选择出对当前任务目标更关键的信息。
发明内容
本发明所要解决的技术问题在于针对上述现有技术中的不足,提供一种基于奇异值分解和空谱域注意力机制高光谱图像分类方法,用提出的奇异值分解卷积网络对样本进行粗略但有效的筛选和特征提取,一定程度上缓解高光谱图像数据量大、样本数量少的问题,同时利用双支路对样本进行空谱域的进一步特征提取融合,能提高高光谱图像分类问题的精度与速度。
本发明采用以下技术方案:
基于奇异值分解和空谱域注意力机制高光谱图像分类方法,包括以下步骤:
S1、从数据集中读入高光谱图像,其中包括三个广泛使用的高光谱图像数据集,即Indian Pines数据集,Pavia University数据集和Salinas Valley数据集,选择任一种且对应只有部分区域的类标ground truth图进行处理;
S2、对样本进行粗处理,构造基于奇异值分解卷积网络的无监督特征提取模型;
S3、按照训练集:验证集:测试集=10%:10%:80%的方式,选取训练集、验证集和测试集;
S4、对样本进行细处理,构造基于空谱域注意力机制网络的双支路分类模型;
S5、利用训练数据集对分类模型进行训练,得到训练好的分类模型;
S6、利用训练好的分类模型对测试数据集进行分类,得到测试数据集中每个像素点的类别。
具体的,步骤S2具体为:
S201、随机在原始图像上选择N个像素点,以每个像素为中心取邻域7×7的区域作为样本块,输入样本块,对样本块去平均处理;
S202、假设光谱维度为C,将处理后的样本块组合成一个新的矩阵X,矩阵X的大小为(7×7×C)×N,其中每一列为一个样本块,含有7×7×C个元素;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010117283.3/2.html,转载请声明来源钻瓜专利网。