[发明专利]基于VGG16和孪生神经网络的遥感影像变化检测方法在审
申请号: | 202010885624.1 | 申请日: | 2020-08-28 |
公开(公告)号: | CN112115808A | 公开(公告)日: | 2020-12-22 |
发明(设计)人: | 王鑫;张香梁;吕安 | 申请(专利权)人: | 河海大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/34;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 南京经纬专利商标代理有限公司 32200 | 代理人: | 周科技 |
地址: | 211100 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 vgg16 孪生 神经网络 遥感 影像 变化 检测 方法 | ||
1.一种基于VGG16和孪生神经网络的遥感影像变化检测方法,其特征在于:该方法包括如下步骤:
(1)获取遥感图像数据集,包括变化前和变化后的图像;将数据集中图像切割为图像块,将图像块分别标注为变化或未变化类标签,构建训练集和测试集;
(2)构建基于VGG16模型的卷积神经网络,包括若干个卷积层和池化层,若干个上采样和反卷积层,以及最后一层卷积层和softmax层;
(3)将训练集中同一区域两个时相的图像块作为卷积神经网络的输入,类标签作为输出,构建损失函数进行网络训练,直到误差满足预期,得到训练好的卷积神经网络;
(4)将测试集中同一区域两个时相的图像块输入训练好的卷积神经网络,通过卷积神经网络将图像块分为变化类和未变化类,得到最后的变化检测图。
2.根据权利要求1所述的基于VGG16和孪生神经网络的遥感影像变化检测方法,其特征在于:所述步骤(3),过程如下:
将训练集中同一区域两个时相的图像块输入卷积神经网络,首先经过若干个卷积层和池化层后得到两个特征图,将两个特征图像合并,并进行一次反卷积操作;然后将得到的特征图像进行若干次上采样和反卷积,接着进行最后一次卷积,经过softmax层后将图像块分为变化类和未变化类;其中,经过softmax层得到一个概率二值化图像,有变化的像素点p1为1,无变化的像素点p0为0;
采用交叉熵作为损失函数,公式如下:
式中m为样本数,即图像中的像素点数;y0和y1是实际标签,分别代表无变化的像素点和有变化的像素点。
3.根据权利要求1或2所述的基于VGG16和孪生神经网络的遥感影像变化检测方法,其特征在于:所述步骤(2),卷积神经网络的卷积层和池化层结构如下:
(2.1.1)在输入层中,输入同一区域两个时相的遥感图像,图像大小为224×224×3;
(2.1.2)在第一层卷积层中,用两组64个3×3的卷积核,设定步长为1;在第一层的池化层,池化方法设为MAX pooling;
(2.1.3)在第二层卷积层中,用两组128个3×3的卷积核,设定步长为1;在第二层的池化层,池化方法设为MAX pooling;
(2.1.4)在第三层卷积层中,用三组256个3×3的卷积核,设定步长为1;在第三层的池化层,池化方法设为MAX pooling;
(2.1.5)在第四层卷积层中,用三组512个3×3的卷积核,设定步长为1;在第四层的池化层,池化方法设为MAX pooling;
(2.1.6)在第五层卷积层中,用三组512个3×3的卷积核,设定步长为1;在第五层的池化层,池化方法设为MAX pooling;
(2.1.7)将第五层的池化层输出的两幅特征图像合并后,经过的反卷积结构为512个3×3的卷积核,设定步长为1。
4.根据权利要求1或2所述的基于VGG16和孪生神经网络的遥感影像变化检测方法,其特征在于:所述步骤(2),卷积神经网络的上采样和反卷积层结构如下:
(2.2.1)在第一层反卷积层中,先进行上采样,再进行反卷积,反卷积是三组3×3的卷积核,设定步长为1;
(2.2.2)在第二层的反卷积层中,先进行上采样,再进行反卷积,反卷积是三组3×3的卷积核,设定步长为1;
(2.2.3)在第三层的反卷积层中,先进行上采样,再进行反卷积,反卷积是三组3×3的卷积核,设定步长为1;
(2.2.4)在第四层的反卷积层中,先进行上采样,再进行反卷积,反卷积是两组3×3的卷积核,设定步长为1;
(2.2.5)在第五层的反卷积层中,先进行上采样,再进行反卷积,反卷积是两组3×3的卷积核,设定步长为1。
5.根据权利要求1或2所述的基于VGG16和孪生神经网络的遥感影像变化检测方法,其特征在于:所述步骤(2),最后一层卷积层中,定义2个尺寸为3×3的卷积核,步长定为1。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河海大学,未经河海大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010885624.1/1.html,转载请声明来源钻瓜专利网。