[发明专利]一种基于条件生成对抗网络的动态到静态场景转换方法在审
申请号: | 202011396405.3 | 申请日: | 2020-12-04 |
公开(公告)号: | CN112507849A | 公开(公告)日: | 2021-03-16 |
发明(设计)人: | 吴麟;孙长银;陆科林;徐乐玏 | 申请(专利权)人: | 东南大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/32;G06K9/62;G06N3/04 |
代理公司: | 南京众联专利代理有限公司 32206 | 代理人: | 杜静静 |
地址: | 210096 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 条件 生成 对抗 网络 动态 静态 场景 转换 方法 | ||
1.一种基于条件生成对抗网络的动态到静态场景转换方法,其特征在于,所述方法包括以下步骤:
步骤1:数据预处理阶段;
步骤2:模型构建阶段,所述模型包括由粗到细的串级两阶段生成网络,以及两种类型的判别网络;
步骤3:模型参数训练阶段;
步骤4:动态到静态场景图像转换模块阶段。
2.根据权利要求1所述的基于条件生成对抗网络的动态到静态场景转换方法,其特征在于,步骤1,数据预处理阶段,具体如下,利用RGB相机采集到的城镇场景下相同位置的动态与静态两个场景的图像并裁剪、缩放至指定尺寸,利用标注的方法获得动态场景中动态目标,包括行人、车辆的二值掩膜。
3.根据权利要求2所述的基于条件生成对抗网络的动态到静态场景转换方法,其特征在于,步骤2,模型构建阶段,具体如下,构建条件生成网络,生成器是由粗到细的两部分卷积神经网络(Coarse to fine Network)构成,粗粒度生成网络(以下简称粗网络)是遵循U-Net模型结构的全卷积神经网络,细粒度生成网络(以下简称细网络)是含有空间与通道双重注意力机制的全卷积神经网络;判别器采用图像块判别器(PatchGAN)与谱归一化判别器(SN-PatchGAN),其中粗网络生成图像输入PatchGAN判别器,细网络生成结果输入SN-PatchGAN判别器。
4.根据权利要求3所述的基于条件生成对抗网络的动态到静态场景转换方法,其特征在于,步骤3,模型训练阶段,具体如下,利用采集的城镇场景的动态场景、静态场景、动态目标掩膜训练上述条件生成对抗神经网络。
5.根据权利要求3或4所述的基于条件生成对抗网络的动态到静态场景转换方法,其特征在于,步骤4:动态到静态场景图像转换模块阶段,将转换的动态场景裁剪,缩放至指定尺寸,输入训练好的条件生成对抗网络,获得条件生成对抗网络的生成器输出的与动态场景相对应的静态场景。
6.根据权利要求5所述的基于条件生成对抗网络的动态到静态场景转换方法,其特征在于,所述步骤2中,使用U-Net生成粗粒度静态场景图像,并由输入动态场景图像,计算两张图像像素绝对误差,设定阈值进行划分。
7.根据权利要求6所述的基于条件生成对抗网络的动态到静态场景转换方法,其特征在于,所述步骤3中,从粗粒度生成网络编码区域提取纹理与结构信息,并通过上下文注意力机制以及挤压与激励机制生成细粒度静态场景图像。
8.根据权利要求6所述的基于条件生成对抗网络的动态到静态场景转换方法,其特征在于,所述步骤4中,通过两个判别器提高粗粒度结果与细粒度结果的真实性,判别器1采用Patch GAN,判别器2采用SN-PatchGAN,判别器判断每个图像块是否为真实数据。
9.根据权利要求6所述的基于条件生成对抗网络的动态到静态场景转换方法,其特征在于,所述步骤4中,由粗到细的串级两阶段网络的生成器损失函数,以及两种判别器的判别损失,根据判别损失和生成损失计算梯度,并通过反向传播算法优化生成网络与判别网络参数,直到训练达到最大迭代次数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东南大学,未经东南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011396405.3/1.html,转载请声明来源钻瓜专利网。