[发明专利]一种基于深度残差神经网络的遥感影像融合方法及系统在审
申请号: | 201811623480.1 | 申请日: | 2018-12-28 |
公开(公告)号: | CN109767412A | 公开(公告)日: | 2019-05-17 |
发明(设计)人: | 邓练兵 | 申请(专利权)人: | 珠海大横琴科技发展有限公司 |
主分类号: | G06T5/50 | 分类号: | G06T5/50 |
代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 严彦 |
地址: | 519031 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 多光谱影像 残差 神经网络 全色影像 遥感影像融合 训练样本 下采样 卷积 高空间分辨率 空间分辨率 关键信息 随机梯度 下降算法 融合 构建 相加 影像 输出 网络 | ||
1.一种基于深度残差神经网络的遥感图像融合方法,其特征在于,包括以下步骤:
步骤a,对全色影像与多光谱影像分别进行相应倍数的下采样,获得训练样本;
步骤b,构建深度残差神经网络,所述深度残差神经网络为深度卷积结构,含有m个卷积模块,输入深度残差神经网络的全色影像和多光谱影像依次经过m个卷积模块所得的输出,与输入的多光谱影像相加构成残差结构,输出深度残差神经网络的相加结果;
步骤c,利用步骤a中生成的训练样本与随机梯度下降算法对深度残差神经网络进行训练;
步骤d,将待融合的多光谱影像与全色影像输入到步骤c中训练好的深度残差神经网络中,即可得到融合后的具备高空间分辨率的多光谱影像。
2.根据权利要求1所述基于深度残差神经网络的遥感图像融合方法,其特征在于:步骤a中,将原始的低空间分辨率的多光谱影像作为真值,将下采样后的多光谱影像与全色影像作为深度残差神经网络的输入。
3.根据权利要求1所述基于深度残差神经网络的遥感图像融合方法,其特征在于:m大于等于20。
4.根据权利要求1或2或3所述的基于深度残差神经网络的遥感图像融合方法,其特征在于:步骤c中,对深度残差神经网络进行训练时,损失函数为:
其中,x(t)表示第t个输入影像,由高空间分辨率的全色影像与低空间分辨率的多光谱影像在特征维度上叠加而成,y(t)表示第t个具备高空间分辨率的多光谱影像,t=1,2,...,T,f(x(t))表示基于深度残差神经网络融合出的结果,T为训练样本数目。
5.一种基于深度残差神经网络的遥感图像融合系统,其特征在于,包括以下模块:
第一模块,用于对全色影像与多光谱影像分别进行相应倍数的下采样,获得训练样本;
第二模块,用于构建深度残差神经网络,所述深度残差神经网络为深度卷积结构,含有m个卷积模块,输入深度残差神经网络的全色影像和多光谱影像依次经过m个卷积模块所得的输出,与输入的多光谱影像相加构成残差结构,输出深度残差神经网络的相加结果;
第三模块,用于利用第一模块中生成的训练样本与随机梯度下降算法对深度残差神经网络进行训练;
第四模块,用于将待融合的多光谱影像与全色影像输入到第三模块中训练好的深度残差神经网络中,即可得到融合后的具备高空间分辨率的多光谱影像。
6.根据权利要求5所述基于深度残差神经网络的遥感图像融合系统,其特征在于:第一模块中,将原始的低空间分辨率的多光谱影像作为真值,将下采样后的多光谱影像与全色影像作为深度残差神经网络的输入。
7.根据权利要求5所述基于深度残差神经网络的遥感图像融合系统,其特征在于:m大于等于20。
8.根据权利要求5或6或7所述的基于深度残差神经网络的遥感图像融合系统,其特征在于:第三模块中,对深度残差神经网络进行训练时,损失函数为:
其中,x(t)表示第t个输入影像,由高空间分辨率的全色影像与低空间分辨率的多光谱影像在特征维度上叠加而成,y(t)表示第t个具备高空间分辨率的多光谱影像,t=1,2,...,T,f(x(t))表示基于深度残差神经网络融合出的结果,T为训练样本数目。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于珠海大横琴科技发展有限公司,未经珠海大横琴科技发展有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811623480.1/1.html,转载请声明来源钻瓜专利网。