[发明专利]多分支卷积神经网络融合的遥感图像场景分类方法有效
申请号: | 201910614263.4 | 申请日: | 2019-07-09 |
公开(公告)号: | CN110443143B | 公开(公告)日: | 2020-12-18 |
发明(设计)人: | 边小勇;陈春芳;张晓龙;盛玉霞 | 申请(专利权)人: | 武汉科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 武汉东喻专利代理事务所(普通合伙) 42224 | 代理人: | 王聪聪 |
地址: | 430081 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 分支 卷积 神经网络 融合 遥感 图像 场景 分类 方法 | ||
1.一种多分支卷积神经网络融合的遥感图像场景分类方法,其特征在于,包括:
步骤S1:将场景数据集按预设比例划分为训练集和测试集;
步骤S2:对场景数据集中的图像进行预处理;
步骤S3:对预处理后的数据集进行数据扩增;
步骤S4:将进行数据扩增后的数据集中的图像输入对象检测网络,获得对象掩码图;
步骤S5:将进行数据扩增后的数据集中的图像输入注意力网络,获得注意力图;
步骤S6:将进行数据扩增后的图像、对象掩码图和注意力图的训练集分别输入到一个CNN网络进行微调,分别获得第一最优分类模型、第二最优分类模型以及第三最优分类模型;
步骤S7:将进行数据扩增后的图像的测试集作为输入,通过第一最优分类模型在CNN网络的Softmax层获得对测试样本的第一预测概率,将对象掩码图的测试集作为输入,通过第二最优分类模型在CNN网络的Softmax层获得对测试样本的第二预测概率,将注意力图的测试集作为输入,通过第三最优分类模型在CNN网络的Softmax层获得对测试样本的第三预测概率;
步骤S8:将第一预测概率、第二预测概率和第三预测概率通过决策级融合,获得最终预测结果,将其作为分类结果;
其中,步骤S4具体包括:
步骤S4.1:设置网络学习参数;
步骤S4.2:加载预训练模型,初始化网络权重,偏差参数;
步骤S4.3:将进行数据扩增后的数据集中的图像输入对象检测网络,以软最大化损失和辅助损失的组合方式进行微调,获得最优分割模型,组合的损失公式如下:
组合的损失:
L=L1+L2 (1)
其中,软最大化损失L1为:
辅助损失L2为:
在式(2)中:
zi表示输入软最大化损失层的第i个类上的特征,
yi表示第i个类上的真实类别,
D表示类别数;
在式(3)中:
α表示辅助损失权重,
z′i表示输入辅助损失层的第i个类上的特征;
步骤S4.4:将进行数据扩增后的图像的测试集作为输入,利用步骤S4.3获得的最优分割模型,得到对象分割图;
步骤S4.5:将对象分割图映射到进行数据扩增后的图像,产生对象掩码图;
步骤S8具体包括:
步骤S8.1:不同分支加权的预测,根据以上生成的三个分支的预测概率矩阵采用加权系数进行聚合,并经过交叉验证找到权重系数预测公式为:
式(4)中:
lp(s)表示具有最高概率的场景图像的预测类别,
D表示类别数;
步骤S8.2:基于大数表决的预测,找出三个预测分支结果中具有最大次数的类别lm(s)作为场景图像s的预测类别,预测公式为:
lm(s)=argmaxk∈{1,...,D}(Count([p1 p2 p3])=k) (5)
式(5)中:
Count(·)表示计数器函数,统计三个分支上预测出的相同类别的次数,
k表示类别号;
步骤S8.3:将上述S8.1和S8.2两种预测方法中具有最高准确度的预测作为最终的预测结果。
2.如权利要求1所述的方法,其特征在于,步骤S2具体包括:
步骤S2.1:将场景图像名与对应的类别编号保存为txt文件;
步骤S2.2:将输入的常规图像格式转换为CNN网络要求的lmdb格式;
步骤S2.3:将转换为lmdb格式的图像的尺寸缩放到CNN网络要求的输入大小。
3.如权利要求1所述的方法,其特征在于,步骤S3具体包括:
对进行预处理后的数据集中包含的图像的中心区域和四个角落进行裁剪得到5个位置的新的图像数据,同时水平翻转裁剪后的图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉科技大学,未经武汉科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910614263.4/1.html,转载请声明来源钻瓜专利网。