[发明专利]一种基于深度学习的三维模型到二维图像的渲染方法有效

专利信息
申请号: 201910393917.5 申请日: 2019-05-13
公开(公告)号: CN110211192B 公开(公告)日: 2022-09-16
发明(设计)人: 高浩;王远 申请(专利权)人: 南京邮电大学
主分类号: G06T11/00 分类号: G06T11/00;G06T3/00;G06T7/13
代理公司: 南京纵横知识产权代理有限公司 32224 代理人: 董建林
地址: 210003 江苏*** 国省代码: 江苏;32
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 深度 学习 三维 模型 二维 图像 渲染 方法
【权利要求书】:

1.一种基于深度学习的三维模型到二维图像的渲染方法,其特征在于,包括:基于深度学习的轮廓渲染及其风格化方法;基于深度学习的光影渲染及其风格化方法;

所述基于深度学习的轮廓渲染及其风格化方法包括以下步骤:

S11,采用多边形模型的随机检测方法检测三维模型的轮廓线;

S12,利用所述三维模型的轮廓线线稿绘制出具有手绘风格的线稿;

S13,采集大量成对的原始线稿和手绘线稿作为训练数据;

S14,构建pix2pixHD网络模型,将所述训练数据输入网络模型进行训练,得到轮廓渲染的风格化网络模型;

S15,将三维模型的原始线稿输入所述轮廓渲染的风格化网络模型,输出三维模型的手绘风格化线稿;

所述基于深度学习的光影渲染及其风格化方法包括以下步骤:

S21,基于CycleGan网络的无监督训练模式构建风格转换网络;

S22,使用大量非成对的数据集对网络进行无监督训练;

S23,将三维模型的手绘风格化线稿、材质、光照、法线信息输入训练完成的风格转换网络,生成颜色填充和阴影表现符合手绘风格的二维图像。

2.根据权利要求1所述的一种基于深度学习的三维模型到二维图像的渲染方法,其特征在于,步骤S12中,绘制具有手绘风格的线稿具体为:改变原始线稿中的线型粗细和笔画模拟的风格,使绘制出的线稿具有手绘的风格;所述原始线稿为通过多边形模型的随机检测方法检测得到的三维模型轮廓线线稿。

3.根据权利要求1所述的一种基于深度学习的三维模型到二维图像的渲染方法,其特征在于,步骤S14中,所述pix2pixHD网络模型包括生成器和判别器,所述生成器用于从语义标签图生成出真实图像,所述判别器用于区分真实图像和生成的图像;所述pix2pixHD网络模型对应的优化问题如下:

其中,

LGAN(G,D)=E(s,x)[logD(s,x)]+Es[log(1-D(s,G(s)))]

其中,x是数据集中的一张真实图像,Dk为3个判别器D1、D2、D3中的一个;LGAN(G,D)为GAN损失函数;D(s,x)为判别器判定图像x为真实图像的概率;G(s)为生成器G根据语义标签图s生成的图像;D(s,G(s))为判别器判定生成器G生成的图像G(s)为真实图像的概率;Es[f(s)]为函数f(s)的期望函数;E(s,x)[f(s,x)]为函数f(s,x)的期望函数;

所述pix2pixHD网络模型将生成器拆分成两个子网络:全局生成器网络G1和局部增强网络G2;所述全局生成器网络G1的输入和输出的图像分辨率保持一致;所述局部增强网络G2的输出图像分辨率为输入图像分辨率的4倍。

4.根据权利要求3所述的一种基于深度学习的三维模型到二维图像的渲染方法,其特征在于,所述全局生成器网络G1由一个卷积前端一系列残差块和一个转置卷积后端组成;所述局部增强网络G2也由一个卷积前端一系列残差块和一个转置卷积后端组成;其中,的输出与最后一层的特征图相加作为的输入。

5.根据权利要求3所述的一种基于深度学习的三维模型到二维图像的渲染方法,其特征在于,所述pix2pixHD网络模型采用3个判别器来处理不同尺度的图像,该3个判别器具有相同的网络结构;为使训练更加稳定,引入特征匹配损失函数:

其中,表示判别器Dk提取的第i层特征,T为总的层数,Dk为3个判别器D1、D2、D3中的一个;Ni为第i层总元素的个数;G(s)为生成器G根据语义标签图s生成的图像;x为数据集中的一张真实图像;E(s,x)[f(s,x)]为函数f(s,x)的期望函数;

引入特征匹配损失函数后,所述pix2pixHD网络模型的优化问题转化为:

其中,λ是特征匹配损失函数在优化问题中所占权重;LGAN(G,Dk)为GAN损失函数。

6.根据权利要求1所述的一种基于深度学习的三维模型到二维图像的渲染方法,其特征在于,步骤S21中,所述风格转换网络包括生成器和判别器,所述生成器用于生成风格化的图像,所述判别器用于将生成的风格化图像与真实手绘图像做对比,并将对比结果作为损失函数训练生成器;该损失函数为:

LGAN(F,DY,X,Y)=Ey~Pdata(y)[logDY(y)]+Ex~Pdata(x)[log(1-DY(F(x)))]

其中,X、Y分别为两种不同风格的图片集;F为从X风格到Y风格的映射,用于将X中的图片x转换为Y中的图片F(x);DY为F映射的判别器;

为了避免将所有X中的图片都转换为Y中的同一张图片,引入另一个映射G,用于将Y中的图片y转换为X中的图片G(y);其中,F(G(y))≈y,G(F(x))≈x;所述风格转换网络同时学习F和G两个映射;定义循环一致性损失函数为:

Lcyc(F,G,X,Y)=Ex~Pdata(x)[||G(F(x))-x||1]+Ey~Pdata(y)[||F(G(y))-y||1]

同时,为G映射引入一个判别器Dx,定义损失函数LGAN(G,Dx,X,Y),故所述风格转换网络最终的损失函数为:

L=LGAN(F,DY,X,Y)+LGAN(F,DX,X,Y)+λLcyc(F,G,X,Y)

其中,λ是循环一致性损失函数在优化问题中所占权重;Ex~Pdata(x)[f(x)]为函数f(x)从分布x~Pdata(x)中抽取随机变抽量时,函数f(x)的期望;Ey~Pdata(y)[f(y)]为函数f(y)从分布y~Pdata(y)中抽取随机变抽量时,函数f(y)的期望。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201910393917.5/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top