[发明专利]基于阈值自适应和卷积神经网络的多光谱图像分类方法有效
申请号: | 201710572115.1 | 申请日: | 2017-07-13 |
公开(公告)号: | CN107392130B | 公开(公告)日: | 2020-12-08 |
发明(设计)人: | 焦李成;屈嵘;孙莹莹;唐旭;杨淑媛;侯彪;马文萍;刘芳;尚荣华;张向荣;张丹;马晶晶 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04 |
代理公司: | 西安通大专利代理有限责任公司 61200 | 代理人: | 徐文权 |
地址: | 710065 陕*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 阈值 自适应 卷积 神经网络 光谱 图像 分类 方法 | ||
1.基于阈值自适应和卷积神经网络的多光谱图像分类方法,其特征在于,输入待分类的landsat_8卫星的多光谱不同时相、不同波段的图像,将所有城市的同一波段图像有标记的部分的所有像元归一化;分析归一化后的图像,将每个城市挑选出的9个波段堆叠成一幅图像,作为训练数据集;构造基于卷积神经网络的分类模型,使用训练数据集对分类模型训练,得到训练好的模型;分析OSM数据中的Raster和Vector地图数据得到一个基于OSM的概率模型,使用该模型与置信度策略对softmax输出结果进行调整,得到最终的分类模型,包括以下步骤:
S1、输入待分类城市的不同时相、不同波段的多光谱图像,并进行预处理,确定训练城市和测试城市;
S2、对训练城市和测试城市的所有波段,所有时相的图像进行归一化处理,将图像中的像元归一化到[0,255]之间;
S3、对于训练城市,分析归一化后的图像,从多个时相中挑选出一幅干扰少、清晰度高的时相图,将每个城市挑选出的9个波段堆叠成一幅图像,作为训练数据集;
S4、辅助多光谱数据,将每个城市的9个波段中的每3个波段的图像进行组合,生成用于校正分类结果的伪彩图;
S5、分析OSM数据中的Raster和Vector地图数据,具体为:
S51、根据OSM数据性质,统计训练城市Raster数据中code与17类之间的对应关系,得到code与17类对应概率的表格;
S52、对于landuse数据,首先对groundtruth进行上采样,得到一个原图400倍大小的GT,然后将landuse.tif逐像素点按照先前统计的概率模型进行一一对应生成17类中的类标,得到了一个伪造的GT1';
S53、对于water、natural类数据,向下采样50%或选取400个像素点,采用其中最多的类标作为向下采样50%或400个像素点的类标,对其单独测试,最后将code整体对water和natural类进行合并,得到了一个伪造的GT2';
S54、将GT1'和GT2'合并生成GT'并上传,查看其分类准确率;
S55、分析Vector地图数据集,得到每一种Raster的code对应的实际地物,与重构的伪类标结果进行对比,手动调整网络的置信度阈值;
S6、构造基于卷积神经网络的分类模型,提取高维特征并实现分类;
S7、使用训练数据集对分类模型训练,得到训练好的模型;
S8、使用OSM概率模型与置信度策略对softmax输出结果进行调整,得到最终的分类模型。
2.根据权利要求1所述的方法,其特征在于,步骤S1中,所述多光谱图像分辨率为100m。
3.根据权利要求1所述的方法,其特征在于,步骤S2中,采用设定阈值的方式选取图像像素值的上下界,设选取全图x的像素点,将像元从小到大排列后的序列为A,由于大气和云层的影响,则需在两端各去除300个像素点缓解噪声,则上界和下界分别为处理后序列的两端值Min和Max,归一化公式如下:
其中,rx0为归一化后某像素点的值,Max为两端各去除300个像素点的最大值,Min为两端各去除300个像素点的最小值,x0为归一化前某像素点的像素值。
4.根据权利要求1所述的方法,其特征在于,步骤S4中,每个城市的9个波段中,第6、5、2波段的组合用于植被分类和水体的识别,第6、4、3波段的组合用于区分农田和城区,第10、7、3波段的组合用于区分出不同种类的植被。
5.根据权利要求1所述的方法,其特征在于,步骤S6中,所述基于卷积神经网络的分类模型为8层卷积神经网络,包括输入层→第一卷积层→第二卷积层→第三卷积层→第一全连接层→第二全连接层→第三全连接层→Softmax分类器。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710572115.1/1.html,转载请声明来源钻瓜专利网。