[发明专利]一种基于改进型U-net的遥感影像建筑物提取方法有效
申请号: | 202110319351.9 | 申请日: | 2021-03-25 |
公开(公告)号: | CN112990041B | 公开(公告)日: | 2022-10-18 |
发明(设计)人: | 李林宜;姚远;孟令奎 | 申请(专利权)人: | 武汉大学 |
主分类号: | G06V20/13 | 分类号: | G06V20/13;G06V10/40;G06V10/774;G06V10/82;G06T3/40;G06N3/04;G06N3/08 |
代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 严彦 |
地址: | 430072 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 改进型 net 遥感 影像 建筑物 提取 方法 | ||
本发明提供一种基于改进型U‑net的遥感影像建筑物提取方法,包括利用训练样本影像集和标签集,进行改进型U‑net网络训练,获得训练好的改进型U‑net网络;所述改进型U‑net网络,是在U‑net深度神经网络基础上,引入残差模块、中间过渡桥接模块以及Inception式最大池化模块;利用训练好的改进型U‑net网络对经处理后多光谱遥感影像进行建筑物提取,获得建筑物提取概率结果图;根据预设的阈值,在得到建筑物提取结果概率图后,设置灰度阈值T,进行建筑物提取结果二值化,获取建筑物提取结果。本发明利用遥感影像中建筑物的空间特性及光谱特性,提供用于建筑物提取的改进型U‑net网络结构,该网络具有较好的建筑物提取能力,在遥感影像中进行建筑物提取精度高,效果好。
技术领域
本发明属于遥感技术与计算机视觉技术交叉领域,涉及一种基于改进型U-net的遥感影像建筑物提取方法。
背景技术
建筑物是人们工作居住的主要环境,占据了大量城市用地,建筑物监测对城市发展和人们生活有着重要意义。建筑物提取是建筑物监测的关键技术,随着遥感技术的不断发展,利用遥感影像进行建筑物提取,已成为一种重要的、高效的技术手段,然而,由于遥感影像的不确定性与建筑物的复杂性,建筑物提取难度较大、精度不高。遥感影像建筑物提取,对于城市规划、生态环境保护、资源开发等方面具有重大意义。
发明内容
为了解决遥感技术领域中建筑物提取难度较大、精度不高的问题,本发明提出了一种基于改进型U-net的遥感影像建筑物提取方法。
本发明的技术方案为一种基于改进型U-net的遥感影像建筑物提取方法,包括以下步骤:
步骤1,利用训练样本影像集和标签集,进行改进型U-net网络训练,获得训练好的改进型U-net网络;
所述改进型U-net网络,是在U-net深度神经网络基础上,引入残差模块、中间过渡桥接模块以及Inception式最大池化模块;
步骤2,利用步骤1训练好的改进型U-net网络对经处理后多光谱遥感影像进行建筑物提取,获得建筑物提取概率结果图;
步骤3,根据预设的阈值T,进行建筑物提取结果二值化,获得建筑物提取结果,实现方式如下,
在得到经步骤2处理后得到的建筑物提取结果概率图后,灰度大于T被识别为建筑物用1表示,小于T则为非建筑物用0表示,进行建筑物提取结果二值化,获取建筑物提取结果。
而且,步骤1中,进行训练影像及标签的预处理,设将训练影像和标签,统一缩放到M×M像素大小,获得适配网络架构的训练样本;
输入训练样本进行改进型U-net网络训练,获得训练好的改进型U-net网络。
而且,所述步骤1中训练影像及标签预处理采用的影像缩放插值方式为双线性插值,M的取值为128。
而且,所述改进型U-net网络输入特征维度为128×128×3,分别对应训练影像的RGB三波段,输出特征维度为128×128×1。
而且,所述改进型U-net网络采取三层网络架构,包括进行3次下采样及3次上采样过程。
而且,所述改进型U-net网络在下采样中采用Inception式最大池化模块,包括分别以pool size=2,3,5,7进行最大池化操作,并将获取的4个特征图进行Concat拼接操作,再通过1×1卷积,采用Relu激活函数将合并后的特征图恢复到原尺寸。
而且,所述改进型U-net网络在编码过程中采用3次卷积残差模块,包括设输入特征为input,首先将输入特征input进行2次卷积核大小为3×3的卷积操作、批标准化及Relu函数激活操作得到特征x,再将输入特征input与x进行相加操作,最后对相加后的特征进行卷积核大小为3×3的卷积操作、批标准化及Relu函数激活操作。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学,未经武汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110319351.9/2.html,转载请声明来源钻瓜专利网。