[发明专利]一种基于对抗网络和多尺度密集特征融合图像去雾方法在审
申请号: | 202110209279.4 | 申请日: | 2021-02-24 |
公开(公告)号: | CN112950498A | 公开(公告)日: | 2021-06-11 |
发明(设计)人: | 万超颖 | 申请(专利权)人: | 苏州加乘科技有限公司 |
主分类号: | G06T5/00 | 分类号: | G06T5/00;G06K9/62;G06N3/04 |
代理公司: | 北京沃知思真知识产权代理有限公司 11942 | 代理人: | 周俊华 |
地址: | 215000 江苏省苏州市工业园区金*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 对抗 网络 尺度 密集 特征 融合 图像 方法 | ||
1.一种基于对抗网络和多尺度密集特征融合图像去雾方法,其特征在于,该去雾方法具体步骤如下:
(1)构建用于图像去雾条件对抗生成网络;
(2)使用公开图像去雾数据集训练该网络至收敛;
(3)将训练好的生成器网络作为图像去雾网络,输入为有雾图像,输出为去雾后的图像。
2.根据权利要求1所述的一种基于对抗网络和多尺度密集特征融合图像去雾方法,其特征在于,步骤(1)所述条件对抗生成网络包括生成器网络、判别器网络和总体目标函数。
3.根据权利要求2所述的一种基于对抗网络和多尺度密集特征融合图像去雾方法,其特征在于,所述生成器网络的结构设计基于U-Net结构,其包括编码模块、解码模块和特征恢复模块三部分组成,所述括编码模块设置有编码器,且集成有残差密集块RDB模块和基于反投影技术的DFF模块,所述解码模块设置有解码器;所述生成器网络具体运行过程如下:
S1:将网络的输入设置为;
S2:将有雾图像送入编码器部分,经过卷积操作,将图像下采样作为特征图;
S3:在每个下采样阶段均将特征图送入1个残差密集块RDB模块进行局部密集特征提取与局部特征融合,再把融合后的特征图通过一个步长为2的卷积层进行下采样操作,然后将下采样后的特征图送入到DFF模块,弥补缺失的空间信息;
S4:每一个阶段特征图的数量增加一倍,经过4次降采样后将的特征图送入特征恢复模块;
S5:将特征恢复模块增强过的特征图经4次反卷积上采样到原始输入大小;
S6:每次上采样后将输出与来自编码器对应层的潜在特征相连接,然后一起输入到残差密集块RDB模块进行特征细化;
S7:再将细化后的特征输入DFF模块进行自适应特征融合。
4.根据权利要求2所述的一种基于对抗网络和多尺度密集特征融合图像去雾方法,其特征在于,所述判别器网络的结构采用PatchGAN,其输出的是一个N*N的矩阵。
5.根据权利要求2所述的一种基于对抗网络和多尺度密集特征融合图像去雾方法,其特征在于,所述总体目标函数采用WGAN-GP损失并修改为条件设定作为对抗训练损失,如下所示:
将L1和L2损失引入上式中得到:
L1(G)=EI,J[∣∣J-G(I)∣∣1] (2)
L2(G)=EI,J[∣∣J-G(I)∣∣2]2 (3)
结合上述损失,得到最终总体目标函数:
式中:G是生成器网络结构,D是判别器网络结构,I是有雾图像,J是真实图像,是沿J和生成器网络结构生成的图像G(I)之间的直线采样,λGP是权重因子。
6.根据权利要求3所述的一种基于对抗网络和多尺度密集特征融合图像去雾方法,其特征在于,所述特征融合采用反投影技术的DFF模块,所述反投影技术用于通过最小化估计出的高分辨率结果和多个观测到的低分辨率输入之间的重构误差来生成高分辨率内容。
7.根据权利要求3所述的一种基于对抗网络和多尺度密集特征融合图像去雾方法,其特征在于,所述特征恢复模块包含8个残差密集块RDB模块,且每个残差密集块RDB模块包括密集的连接层、局部特征融合和局部残差学习,其具体运行过程如下:
SS1:通过连续内存机制读取前一个RDB模块的状态然后传递到当前RDB模块的每一层,同时通过局部密集连接充分利用其中的所有层;
SS2:通过一个1*1的卷积层进行局部特征融合,以自适应的保留积累特征;
SS3:通过局部残差学习进一步改善信息流,提高网络的表示能力。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州加乘科技有限公司,未经苏州加乘科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110209279.4/1.html,转载请声明来源钻瓜专利网。