[发明专利]多分支卷积神经网络融合的遥感图像场景分类方法有效
申请号: | 201910614263.4 | 申请日: | 2019-07-09 |
公开(公告)号: | CN110443143B | 公开(公告)日: | 2020-12-18 |
发明(设计)人: | 边小勇;陈春芳;张晓龙;盛玉霞 | 申请(专利权)人: | 武汉科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 武汉东喻专利代理事务所(普通合伙) 42224 | 代理人: | 王聪聪 |
地址: | 430081 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种多分支卷积神经网络融合的遥感图像场景分类方法,首先将场景数据集按比例随机划分成训练集和测试集;接着对数据集进行预处理和数据扩增;将处理后的数据分别通过对象检测网络和注意力网络获得对象掩码图和注意力图;然后将原图像、对象掩码图和注意力图训练集分别输入到一个CNN网络进行微调,分别获得最优分类模型,再将三组测试集作为输入分别通过最优分类模型获得Softmax层的输出,最后将三组Softmax层的输出通过决策级融合,获得最终的预测结果。本发明可以提高分类准确性和分类效果。 | ||
搜索关键词: | 分支 卷积 神经网络 融合 遥感 图像 场景 分类 方法 | ||
【主权项】:
1.一种多分支卷积神经网络融合的遥感图像场景分类方法,其特征在于,包括:步骤S1:将场景数据集按预设比例划分为训练集和测试集;步骤S2:对场景数据集中的图像进行预处理;步骤S3:对预处理后的数据集进行数据扩增;步骤S4:将进行数据扩增后的数据集中的图像输入对象检测网络,获得对象掩码图;步骤S5:将进行数据扩增后的数据集中的图像输入注意力网络,获得注意力图;步骤S6:将进行数据扩增后的图像、对象掩码图和注意力图的训练集分别输入到一个CNN网络进行微调,分别获得第一最优分类模型、第二最优分类模型以及第三最优分类模型;步骤S7:将进行数据扩增后的图像的测试集作为输入,通过第一最优分类模型在CNN网络的Softmax层获得对测试样本的第一预测概率,将对象掩码图的测试集作为输入,通过第二最优分类模型在CNN网络的Softmax层获得对测试样本的第二预测概率,将注意力图的测试集作为输入,通过第三最优分类模型在CNN网络的Softmax层获得对测试样本的第三预测概率;步骤S8:将第一预测概率、第二预测概率和第三预测概率通过决策级融合,获得最终预测结果,将其作为分类结果。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉科技大学,未经武汉科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910614263.4/,转载请声明来源钻瓜专利网。