[发明专利]一种基于遥感影像和深度学习的土地利用分类方法及系统在审
申请号: | 202011421679.3 | 申请日: | 2020-12-08 |
公开(公告)号: | CN112580453A | 公开(公告)日: | 2021-03-30 |
发明(设计)人: | 不公告发明人 | 申请(专利权)人: | 成都数之联科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/08;G06N3/04 |
代理公司: | 成都行之专利代理事务所(普通合伙) 51220 | 代理人: | 李朝虎 |
地址: | 610000 四川省成都市*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 遥感 影像 深度 学习 土地利用 分类 方法 系统 | ||
1.一种基于遥感影像和深度学习的土地利用分类方法,其特征在于,该方法包括以下步骤:
S1:获取城市和乡镇土地的遥感影像原始图像,并对其进行预处理;
S2:通过深度神经网络,对预处理后的原始图像进行卷积和池化处理,提取特征;并将提取的特征与原始图像的原特征进行级联,得到级联后的特征集;
S3:将所述级联后的特征集进行多尺度的池化得到多尺度的映射特征,及将所述多尺度的映射特征通过融合与上采样处理至与原始图像相同的像素,得到分类后的图像。
2.根据权利要求1所述的一种基于遥感影像和深度学习的土地利用分类方法,其特征在于,步骤S1中对获取的城市和乡镇土地的遥感影像原始图像进行预处理,包括:将遥感影像原始图像切割成512x512的小图,并以7:2:1的比例划分为训练集、验证集和测试集。
3.根据权利要求1所述的一种基于遥感影像和深度学习的土地利用分类方法,其特征在于,步骤S2的具体步骤如下:
S21:采用深度学习多尺度网络结构Res2Net,对预处理后的原始图像提取图像特征的高维表达,所述图像特征经过1x1卷积将特征分成4组特征xi,i∈{1,2,3,4},每个子集的分辨率大小和原特征相同,通道数减少为原来的1/4表示为Ki,输出提取的特征yi的公式如下所示:
式中,xi表示第i组的卷积特征,ki表示第i组的3x3卷积,yi-1表示第i组卷积特征的输出;
S22:将步骤S21提取的特征yi和原特征xi集成在一起,即将局部的特征和全局的特征级联在一起,丰富特征F的表达式为:
式中,∑为求和符号。
4.根据权利要求1所述的一种基于遥感影像和深度学习的土地利用分类方法,其特征在于,步骤S3的具体步骤如下:
S31:采用4种尺度的池化层来精炼特征的聚合能力,其中池化分别为1×1,2×2,3×3,6×6,从这四个维度覆盖遥感影像的各个尺度特征,在每个尺度的到后面一次使用1x1的卷积将通道数降低为1/4得到通道双线程插值得到多尺度特征;其表达式如下:
其中din是输入的卷积,采用大小可变的池内核dkernel来抽象出不同的子区域,使用padding技术,在图像周围额外添加一圈像素,使得卷积后的图像尺寸和卷积前的一样,stride池化的步调;
S32:将所述多尺度特征作为监督信息回传到各通道中,与解码器输入的特征每个像素对应相乘,学习各个特征的权重,得到加权后的原特征图信息;
S33:将步骤S32得到融合后的特征,在通道维度上结合所述多尺度特征融合信息与加权后的原特征图信息,经过双线性插值上采样得到预测输出结果。
5.根据权利要求1所述的一种基于遥感影像和深度学习的土地利用分类方法,其特征在于,所述步骤S2、S3中的使用过程中通过损失函数反向传播误差来优化神经网络模型的参数,使用focal loss损失函数的公式为:
式中,α和γ是超参数;ypred是模型的预测值,y是真实样本的类别。
6.一种基于遥感影像和深度学习的土地利用分类系统,其特征在于,该系统支持如权利要求1至5中任意一项所述的一种基于遥感影像和深度学习的土地利用分类方法,该系统包括:
获取单元,用于获取城市和乡镇土地的遥感影像原始图像,并对其进行预处理;
处理单元包括第一处理单元和第二处理单元,所述第一处理单元,用于通过深度神经网络,对预处理后的原始图像进行卷积和池化处理,提取特征;并将提取的特征与原始图像的原特征进行级联,得到级联后的特征集;所述第二处理单元,用于将所述级联后的特征集进行多尺度的池化得到多尺度的映射特征,及将所述多尺度的映射特征通过融合与上采样处理至与原始图像相同的像素,得到分类后的图像;
输出单元,用于输出分类后的图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于成都数之联科技有限公司,未经成都数之联科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011421679.3/1.html,转载请声明来源钻瓜专利网。