[发明专利]一种基于生成对抗网络的双阶段多配色线稿上色模型及其构建方法和应用有效
申请号: | 201910447456.5 | 申请日: | 2019-05-27 |
公开(公告)号: | CN110223359B | 公开(公告)日: | 2020-11-17 |
发明(设计)人: | 王曰海;张展 | 申请(专利权)人: | 浙江大学 |
主分类号: | G06T11/00 | 分类号: | G06T11/00;G06T9/00 |
代理公司: | 杭州天勤知识产权代理有限公司 33224 | 代理人: | 胡红娟;曹兆霞 |
地址: | 310013 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 生成 对抗 网络 阶段 配色 上色 模型 及其 构建 方法 应用 | ||
1.一种基于生成对抗网络的双阶段多配色线稿上色模型的构建方法,包括以下步骤:
(1)构建双阶段多配色线稿上色网络,双阶段多配色线稿上色网络包含草稿阶段的编码器、草稿生成器、第一判别器,分辨率提升阶段的高级生成器和第二判别器,其中,编码器用于将真实彩色图片和/或草稿生成器生成的草稿彩色图片编码成特征向量;草稿生成器用于将输入的线稿图片和特征向量生成草稿彩色图片,第一判别器用于判别输入的图像是草稿彩色图片还是真实彩色图片;高级生成器用于将输入的线稿图片和草稿彩色图片生成高分辨率生成图片,第二判别器用于判别输入的图像是高分辨率生成图片还是真实彩色图片;
其中,草稿生成器输入的特征向量分别来自于噪声和真实彩色图片的编码;
(2)构建损失函数,第一判别器的损失函数为与真实彩色图片匹配的真实标签、草稿彩色图片匹配的虚假标签对应的第一交叉熵,草稿生成器需要减少草稿彩色图片与真实彩色图片的均方误差,生成的图片要让第一判别器判断为真实标签,同时为了引入噪声编码以生成多种配色,还需减少特征向量之间的平均绝对误差;编码器通过KL散度损失让编码输出的特征接近于高斯分布;第二判别器的损失函数为与真实彩色图片匹配的真实标签、生成的高分辨率彩色图片匹配的虚假标签对应的第二交叉熵,高级生成器需要减少高分辨率生成图片与真实彩色图片的均方误差,同时生成的图片要让第二判别器判断为真实标签;
构建的损失函数为:
草稿阶段,分为两种情况,一种是噪声向量z从图片编码的特征向量中采样,另一种是噪声向量z从高斯噪声p(z)~N(0,1)中采样;
噪声向量z从图片编码的特征向量中采样的情况下,首先要保证生成的草稿彩色图片相似于真实彩色图片,采用均方差损失
A表示线稿图片,B表示真实彩色图片,(A,B)组成了训练集,该训练集的特征满足p(A,B)的分布,A,B~p(A,B)表示训练过程中采样的A,B来源于这样的训练集分布;同样的,B编码之后的特征也满足分布E(B),z~E(B)就表示z为编码器Encoder对真实彩色图片B的编码向量E(B)中的采样点,满足这样的分布;G1(A,z)表示在输入为(A,z)的条件下,草稿生成器G1生成的草稿彩色图片,表示满足上述采样条件下的期望函数,这里的||B-G1(A,z)||2为L2范数,其原型公式为把B-G1(A,z)用x替代;
其次是第一判别器D1、草稿生成器G1之间的对抗损失,采用交叉熵损失:
D1(A,B)表示输入为(A,B)的条件下,即输入真实图片的情况下,第一判别器D1的输出的标签;D1(A,G1(A,z))表示输入为(A,G1(A,z))的条件下,即输入生成的虚假图片的情况下,第一判别器D1的输出的标签;
最后一部分是要求编码器编码出来的特征需要接近于高斯分布N(0,1)的KL损失:
这里的DKL(E(B)||N(0,1))是KL散度,其原型公式为
该公式用于衡量p分布和q分布之间的距离,这里p对应E(B),q对应N(0,1),通过减少二者距离之间的期望来达到上述编码器编码出来的特征需要接近于高斯分布N(0,1)的目的;
z从高斯噪声p(z)~N(0,1)中采样的情况下:
首先要保证生成的草稿彩色图片相似于真实彩色图片,采用均方差损失
和Lmse1(G1)唯一不同的地方就是这里z的分布为高斯分布N(0,1),z~p(z)就表示z是从这样的高斯分布中采样得到的;
第一判别器D1、草稿生成器G1之间的对抗损失,采用交叉熵损失
为了保证生成的草稿彩色图片的编码与z一致,采用平均绝对误差
E(G1(A,z))表示编码器E对草稿生成器G1输出的G1(A,z)的编码向量,这里的||z-E(G1(A,z))||1为L1范数,其原型公式为:
即把z-E(G1(A,z))用x替代;
综上,草稿阶段的损失函数为:
这里的超参数λKL,λmse1,λlatent,λmse2为各部分损失函数的权重;
分辨率提升阶段,首先要保证生成的高分辨率彩色图片相似于真实彩色图片,采用均方差损失:
这里的Bdraft是草稿阶段生成的草稿彩色图片,即
Bdraft=G1(A,z)
G2(A,Bdraft)则是在输入为(A,Bdraft)的条件下,高级生成器G2生成的高分辨率彩色图片;
第二判别器G2、高级生成器D2之间的对抗损失,采用交叉熵损失
D2(A,B)表示输入为(A,B)的条件下,即输入真实图片的情况下,第二判别器D2的输出的标签;D2(A,Bdraft)表示输入为(A,Bdraft)的条件下,即输入生成的虚假图片的情况下,第二判别器D2的输出的标签;
综上,最终阶段的损失函数为
Lfinal=LGAN2(G2,D2)+λmseLmse(G2)
这里的超参数λmse为均方差损失函数的权重;
(3)以真实彩色图片、根据彩色图片生成的线稿图片作为训练样本,以损失函数收敛为目标,对线稿上色网络进行分阶段训练,待草稿阶段模型训练完成后,再进行分辨率提升阶段的训练,网络参数确定后,提取参数确定的草稿生成器和高级生成器作为线稿上色模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910447456.5/1.html,转载请声明来源钻瓜专利网。