[发明专利]一种基于深度集成学习的高分辨率遥感图像分类方法在审
申请号: | 202010173481.1 | 申请日: | 2020-03-13 |
公开(公告)号: | CN111368776A | 公开(公告)日: | 2020-07-03 |
发明(设计)人: | 席江波;聂聪冲;孙悦鸣;姜万冬 | 申请(专利权)人: | 长安大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 西安睿通知识产权代理事务所(特殊普通合伙) 61218 | 代理人: | 惠文轩 |
地址: | 710064 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 集成 学习 高分辨率 遥感 图像 分类 方法 | ||
1.一种基于深度集成学习的高分辨率遥感图像分类方法,其特征在于,包括以下步骤:
步骤1,获取训练集和测试集;并分别构建基于像元亮度值分类的全连接网络模型、基于面向对象分类的卷积神经网络模型和基于遥感图像分类的完全卷积网络模型;
其中,所述训练集和测试集中的样本分别为高分辨率遥感图像及其DSM数据,DSM为数字表面模型;
步骤2,采用训练集分别对基于像元亮度值分类的全连接网络模型、基于面向对象分类的卷积神经网络模型和基于遥感图像分类的完全卷积网络模型进行训练,对应得到相应的基分类器;采用测试集分别对三个基分类器进行测试,对应输出相应类别概率值;
步骤3,在步骤2得到的三个基分类器的输出端设置全连接网络,以三个基分类器输出的类别概率值作为输入特征数据,以标签图为目标类别,对全连接网络进行训练,得到深度集成学习网络;
步骤4,采用深度集成学习网络对测试集中样本进行分类,输出对应预测类别标签。
2.如权利要求1所述的基于深度集成学习的高分辨率遥感图像分类方法,其特征在于,所述基于像元亮度值分类的全连接网络模型由N个全连接层组成的,其中,前N-1层分别采用ReLU函数作为激活函数,最后一层采用Softmax函数作为激活函数;在最后一层全连接层之前使用Dropout层进行正则化,防止过拟合。
3.如权利要求1所述的基于深度集成学习的高分辨率遥感图像分类方法,其特征在于,所述基于面向对象分类的卷积神经网络模型包含多个卷积层、最大池化层、全连接层及输出层,每个卷积层之后为一个最大池化层,最后一个池化层之后连接多个全连接层,最后一个全连接层之后为输出层;其中,每个卷积层和全连接层的激活函数分别为ReLU函数,输出层的激活函数为Softmax函数;在最后一个全连接层之前使用Dropout层进行正则化。
4.如权利要求1所述的基于深度集成学习的高分辨率遥感图像分类方法,其特征在于,所述基于遥感图像分类的完全卷积网络模型由多个二元分类器组成,每个二元分类器包含卷积层、Dropout正则化层、池化层,及与之对称的卷积层、融合层和上采样层。
5.如权利要求1所述的基于深度集成学习的高分辨率遥感图像分类方法,其特征在于,步骤2包含以下子步骤:
2.1,对训练集进行预处理,得到预处理后的训练集;
其中,所述预处理为不平衡样本处理、数据扩充和归一化;
2.2,采用预处理后的训练集对基于像元亮度值分类的全连接网络模型进行训练,得到全连接网络对应的基分类器;采用测试集对全连接网络对应的基分类器进行测试,输出相应的类别概率;
2.3,采用预处理后的训练集对基于面向对象分类的卷积神经网络模型进行训练,得到卷积神经网络对应的基分类器;采用测试集对卷积神经网络对应的基分类器进行测试,输出相应的类别概率值;
2.4,采用预处理后的训练集对基于遥感图像分类的完全卷积网络模型进行训练,得到完全卷积网络对应的基分类器;采用测试集对完全卷积网络对应的基分类器进行测试,输出相应的类别概率值。
6.如权利要求5所述的基于深度集成学习的高分辨率遥感图像分类方法,其特征在于,所述不平衡样本处理具体为:对小类别样本进行数据重采样、对大类别数据进行下采样或者对不同类别采用不同的采样比例;
所述数据扩充为:将训练集中的原始图像进行水平翻转或随机旋转;
所述归一化为:对于遥感卫星数据的近红外、红色、绿色三个波段的彩色影像,将灰度值从0-255缩放到0-1之间;
对于航空影像,包含近红外、红色、绿色三个波段的彩色影像和一个波段的DSM数据,其中,近红外、红色、绿色三波段的彩色影像将灰度值从0-255缩放到0-1之间;对于DSM数据,首先统计所有数值,找出最小值和数值区间,再将每个像素值减去该最小值后,除以数值区间的数值个数;最后将所有像素值归一化至0-1之间。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于长安大学,未经长安大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010173481.1/1.html,转载请声明来源钻瓜专利网。