[发明专利]基于拼图引导的深度特征融合的遥感图像场景分类方法有效
申请号: | 202110921430.7 | 申请日: | 2021-08-11 |
公开(公告)号: | CN113642456B | 公开(公告)日: | 2023-08-11 |
发明(设计)人: | 翁谦;黄志铭;林嘉雯;陈浩;林智明;吴雨阳 | 申请(专利权)人: | 福州大学 |
主分类号: | G06V20/10 | 分类号: | G06V20/10;G06V10/80;G06V10/774;G06T3/40;G06T7/11;G06V10/82;G06N3/0464 |
代理公司: | 福州元创专利商标代理有限公司 35100 | 代理人: | 陈明鑫;蔡学俊 |
地址: | 350108 福建省福州市*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 拼图 引导 深度 特征 融合 遥感 图像 场景 分类 方法 | ||
1.基于拼图引导的深度特征融合的遥感图像场景分类方法,其特征在于:包括以下步骤:
步骤S1:令采用的主干特征提取网络模型F共有L层卷积块;首先,输入高分辨率遥感图像数据即原始图像,通过一个拼图生成器,将图像数据的布局随机分块后再拼接,生成原始图像的一个随机拼图,然后送入到主干特征提取网络模型F的前L⁄2层卷积块,进行对浅层卷积块的训练,用以促进主干特征提取网络模型F对于图像局部信息的关注;
步骤S2:将输入的高分辨率遥感图像数据即原始图像送入主干特征提取网络模型F的所有卷积块,即对主干特征提取器网络模型F所有的L层卷积块进行训练,用以促进主干特征提取网络模型F对于深层特征的关注和图像语义信息的学习,将主干特征提取网络模型F的整个聚焦区域扩大到整个图像;
步骤S3:通过将主干特征提取网络模型F的第L⁄2层卷积块的输出特征和第L层卷积块的输出特征分别送入由二维卷积Conv2d和归一化函数BatchNorm2d组成的卷积块进行维数处理,将两个输出特征的维数均处理成相同维数后进行concatenate通道特征融合,用以使整个模型能够学习到图像的全局语义信息和局部信息;
步骤S4:将融合后的特征送入经过归一化函数BatchNorm、全连接层、归一化函数BatchNorm、ELU激活函数以及全连接层组成的分类模块进行分类,即对前层的特征进行一个加权和,将特征空间通过线性变换映射到样本标记空间,得到最终的分类结果;
步骤S1中所述的主干特征提取网络模型F采用ResNet或VGGNet;
步骤S1中所述拼图生成器生成原始图像的一个随机拼图的具体内容如下:通过一个拼图生成器,先对原始图像进行均匀分割,然后将分割后的图块随机组合成一个和原来尺寸大小一样的图像,即为原始图像的一个随机拼图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于福州大学,未经福州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110921430.7/1.html,转载请声明来源钻瓜专利网。
- 上一篇:糖液中蔗糖分和还原糖分的快速检测方法
- 下一篇:一种高效杀菌漱口水