[发明专利]一种基于U-net的InSAR干涉图像相位解缠方法有效
申请号: | 202011367355.6 | 申请日: | 2020-11-28 |
公开(公告)号: | CN112381172B | 公开(公告)日: | 2022-09-16 |
发明(设计)人: | 谢先明;梁峰 | 申请(专利权)人: | 桂林电子科技大学 |
主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V10/82;G06T7/277;G06N3/04;G06T7/00;G01S13/90 |
代理公司: | 桂林市华杰专利商标事务所有限责任公司 45112 | 代理人: | 覃永峰 |
地址: | 541004 广西*** | 国省代码: | 广西;45 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 net insar 干涉 图像 相位 方法 | ||
本发明公开了一种基于U‑net的InSAR干涉图像相位解缠方法,包括S1,创建InSAR模拟数据集;S2,创建准实测数据集;S3,将S1和S2创建好的两种数据放入改进的U‑net模型中进行训练;S4,将待解缠相位图像放入已训练好的U‑net模型中得出解缠出的真实相位图像。本发明将U‑net架构、ASPP网络以及瓶颈残差网络结合起来,将不同扩张率的扩张卷积特征结合捕获丰富的上下文信息,能够在不牺牲特征空间分辨率的同时扩大特征接收野,有利于精确获取缠绕干涉图特征信息,提高相位解缠算法的稳健性;瓶颈残差单元可使网络模型在减小参数计算量的同时防止网络退化,提高网络训练精度与效率。与现有技术相比,本发明解缠精度相对较高、抗噪性能相对较强。
技术领域
本发明属于图像相位解缠领域,涉及InSAR干涉图像相位解缠,尤其涉及一种基于U-net的InSAR干涉图像相位解缠方法。
背景技术
目前相位解缠算法包括以枝切法与质量引导算法为代表的路径跟踪类算法、以最小二乘法为代表的最小范数类算法、以网络流法为代表的网络规划类算法、以卡尔曼滤波法为代表的状态估计类算法等、以全卷积网络为代表的深度学习类算法等方法。路径跟踪类算法利用各种各样策略定义合适路径,并沿此路径积分获取其解缠相位,以尽量减少或避免相位解缠过程中误差累积效应。最小范数类算法首先在最小范数准则框架下构造一个解缠相位梯度与缠绕相位梯度之差的代价函数,随后利用各种方法得到使代价函数最小的解。网络规划类算法把干涉图相位解缠问题转化为网络流代价函数的最小化问题。状态估计类算法把干涉图相位解缠问题转化非线性条件下的状态估计问题,几乎同时执行相位噪声抑制与相位解缠。深度学习类算法通过构建编码-解码网络实现相位解缠,网络模型前半部分对输入图像进行下采样,特征图经过卷积层和池化层后进入解码路径,最后对特征图进行上采样并输出解缠结果。
路径跟踪类算法、最小范数类算法、网络规划类算法等方法易受干涉相位噪声的影响,有时难以有效解缠噪声干涉图,且路径跟踪类算法与网络规划类算法均在一定程度上存在相位解缠精度与效率难以兼顾的问题;状态估计类算法具有较强抗相位噪声性能,通常能有效处理低信噪比干涉图的相位解缠问题,但时间耗费代价较大;深度学习类算法具有一定泛化性,但目前此类算法的解缠精度有限且无法对实测地形数据进行解缠。
发明内容
为了解决上述问题,本发明提供一种解缠精度相对较高、抗噪性能相对较强的基于U-net的InSAR干涉图像相位解缠方法。
实现本发明目的的技术方案是:
一种基于U-net的InSAR干涉图像相位解缠方法,包括以下步骤:
S1,创建合成孔径雷达干涉(Interferometric Synthetic Aperture Radar,简称InSAR)模拟数据集;
S2,创建准实测数据集;
S3,将S1和S2创建好的两种数据放入改进的U-net模型中进行训练;
S4,将待解缠相位图像放入已训练好的U-net模型中得出解缠出的真实相位图像。
进一步地,所述S1包括如下步骤:
S1-1,构建2×2~20×20随机初始矩阵;
S1-2,用双三次插值法对初始矩阵扩展进行插值放大到256像素×256像素,得到真实相位干涉图;
S1-3,将生成的真实相位图重缠绕相位并加入不同信噪比的噪声。
进一步地,所述S2包括如下步骤:
S2-1,对滤波后的实测数据使用无迹卡尔曼滤波(Unscented Kalman Filter,简称UKF)算法进行相位解缠,再将得到后的解缠结果重缠绕;
S2-2,对重缠绕后的图像以及S2-1得到的解缠相位标签进行分割、旋转、放大操作;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于桂林电子科技大学,未经桂林电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011367355.6/2.html,转载请声明来源钻瓜专利网。