[发明专利]基于深度辨别性增强网络的遥感影像语义分割方法有效
申请号: | 202011230895.X | 申请日: | 2020-11-06 |
公开(公告)号: | CN112348820B | 公开(公告)日: | 2023-04-07 |
发明(设计)人: | 刘艳飞;王珍;丁乐乐;邢炜光;朱大勇;魏麟;潘宇明;王震;孟凡效;张涛 | 申请(专利权)人: | 天津市勘察设计院集团有限公司 |
主分类号: | G06T7/10 | 分类号: | G06T7/10;G06V10/764;G06N3/0464;G06N3/08;G06T5/00;G06V10/82 |
代理公司: | 天津企兴智财知识产权代理有限公司 12226 | 代理人: | 刘影 |
地址: | 300191 *** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 辨别 增强 网络 遥感 影像 语义 分割 方法 | ||
1.一种基于深度辨别性增强网络的高分辨率遥感影像语义分割方法,其特征在于,包括以下步骤:
步骤1,深度辨别性增强网络训练,本步骤进一步包括:
步骤1.1,将待训练高分辨率遥感影像进行切割和归一化处理;
步骤1.2,利用归一化后的高分辨率遥感影像训练深度辨别性增强网络;
步骤2,基于深度辨别性增强网络的高分影像语义分割推断,本步骤进一步包括:
步骤2.1,将待推断大幅影像进行切割,切割成互不重叠的小幅影像;
步骤2.2,利用步骤1训练得到的深度辨别性增强网络对每一幅切割得到的影像进行预测,得到其对应的概率分布图;
步骤2.3,根据步骤2.2得到的概率分布图获得每一个像素的类别,并最终得到语义分割图;
步骤2.4,按照影像原图将每一小幅影像的语义分割图拼接得到大幅语义分割图Seg;
步骤3,语义分割后处理,本步骤进一步包括:
步骤3.1,对待推断影像进行无监督分割,得到无监督分割图Useg;
步骤3.2,利用无监督分割图对步骤2得到的语义分割图进行平滑;
步骤1.2包含以下步骤:
步骤1.2.1,深度特征提取,设网络深度为L,特征提取其公式为:
zL-1=CNN(x′) (1)
其中zL-1∈RW×H×K为第L-1层网络的输出,K表示特征维度,CNN(·)表示卷积神经网络特征提取函数,x′为经过步骤1.1得到的预处理图像;
步骤1.2.2,使用SoftMax对提取得到特征进行分类,计算输入影像属于t类的概率:
其中x′i表示输入影像第i个像素,p(t|x′i)表示样本像素x′i属于t类的概率(t=1,2,…n),n为总的类别个数,s为伸缩常数,θt,i为像素x′i的特征与SoftMax中第t类对应的参数向量之间的夹角,计算公式如下:
θt,i=arcos(wL,t·zL-1,i) (3)
其中zL-1,i为像素x′i在第L-1层网络输出的深度特征向量,wL,t表示SoftMax中第t类对应的参数向量;
步骤1.2.3,计算语义分割损失函数J,计算公式如下:
其中m为参与训练的像素样本个数;
步骤1.2.4,采用随机梯度下降算法计算参数偏导数并更新网络参数,计算公式如下:
其中w为深度网络参数,表示网络参数偏导数,lr表示学习率;
步骤3.2包含以下步骤:
步骤3.2.1,针对无监督分割图Useg的任意分割图块,基于语义分割图Seg统计每一个类别的出现频率;
步骤3.2.2,将出现频率最高的类别作为该图块中所有像素的类别;
步骤3.2.3,对无监督分割图Useg中的每一图块执行上述步骤3.2.1和步骤3.2.2,得到最终的高分辨率遥感影像语义分割图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津市勘察设计院集团有限公司,未经天津市勘察设计院集团有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011230895.X/1.html,转载请声明来源钻瓜专利网。