[发明专利]一种基于三维卷积神经网络的遥感卫星影像多时相变化检测方法有效
申请号: | 201910342178.7 | 申请日: | 2019-04-26 |
公开(公告)号: | CN110059658B | 公开(公告)日: | 2020-11-24 |
发明(设计)人: | 高昆;韩璐;倪崇;张庆君;王俊伟;张宇桐 | 申请(专利权)人: | 北京理工大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 北京一枝笔知识产权代理事务所(普通合伙) 11791 | 代理人: | 张庆瑞 |
地址: | 100089 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 三维 卷积 神经网络 遥感 卫星 影像 多时 相变 检测 方法 | ||
本发明公开了一种基于三维卷积神经网络的遥感卫星影像多时相变化检测方法,提出一种三维U‑net模型,该模型输入为图像长、宽、通道数以及时间四个维度,利用三维卷积对长,宽,时间同时进行操作,同理使用了三维池化与上采样操作。本发明,图片间的关联性通过设置合理的时间维度的卷积核尺寸来控制,增加此维度可以考虑更多图片的关联。对于以往繁重的数据标签问题,该模型也可以根据少量监督数据在训练过程中将非监督数据的损失函数权值设置为零,从而直接训练模型,大大减少了所需标签工作量。
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于三维卷积神经网络的遥感卫星影像多时相变化检测方法。
背景技术
传统U-net模型在空间维度处理二维图像,对于普通图像而言,输入可以表示为CWH,其中W与H分别表示图像的长宽,C表示通道数,对于RGB图像而言通道数为3。模型中的二维卷积核大小可以表示为KW,KH。在空间维度上对每个通道进行卷积操作。而在多时相问题中,需要预测的图片数据为相同大小的在不同时间观测所得的多幅图片。
传统U-net的输入为两幅图像(变化前后),将两图(大小为)连接为双倍通道(大小为)看做一幅图片作为输入,由于传统的输入为多时相图像数据,一味的增加通道数会加大运算量负荷解决由于新的信息量进入而带来的数据处理问题。
为此,本发明提出一种基于三维卷积神经网络的遥感卫星影像多时相变化检测方法解决上述问题。
发明内容
本发明的目的是为了解决现有技术中存在的缺点,如:传统U-net的输入为两幅图像(变化前后),将两图(大小为)连接为双倍通道(大小为)看做一幅图片作为输入,由于传统的输入为多时相图像数据,一味的增加通道数会加大运算量负荷解决由于新的信息量进入而带来的数据处理问题。
为了实现上述目的,本发明采用了如下技术方案:
一种基于三维卷积神经网络的遥感卫星影像多时相变化检测方法,包括以下步骤:
步骤一:U-net中增加时间维度,可以有效的将不同时间的图像信息纳入变化检测的计算当中,由于引入了时间维度的卷积,时间感受野在U-net中逐层增加,并满足此卷积神经网络一般关系:
Rout=Rin+(KT-1)D (1)
其中Rout与Rin分别为卷积神经网络一层的输出与输入感受野,D为特征之间的距离。
步骤二:保存输入输出数据有相同的时间维度,U-net中通过使用填充图像边缘的方法保持卷积操作前后输入和输出数据的空间维度不变,从而简化了网络设计,三维U-net的输出即变化Change(i-1,i)与相同序列数的输入图片Image i一一对应。Change(i-1,i)表示为图i-1与图i之间的变化,由于第一幅图Image 1没有相应的变化,对应的变化Change(0,1)为空,在训练过程中不对该值计算损失函数与优化。
步骤三:通过卷积核在时间维度的大小KT来控制三维U-net在时间上的感受野,当KT为1时,该网络在时间维度每次卷积只计算一帧图像,所以不能比较相邻图片的区别以进行变化检测,因此KT的最小值为2。
优选的,所述步骤二中,在三维U-net当中对所有的卷积核使用相同的时空尺寸,固定空间尺寸为KW=3与KH=3,并且根据需求调整KT,卷积核的移动步长(Stride)均为1。
优选的,所述步骤二中,对于不同的KT,需要调整填充的方法来保持输出时间维度不变,对于扩张率为1的卷积网络,其输出大小为65,为保持TOUT=TIN,当KT为2,Stride为1时,Padding的值为1,即为此维度上需要填充的数量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910342178.7/2.html,转载请声明来源钻瓜专利网。