[发明专利]一种轻量级GPU云烘培Web3D实时全局光照渲染管线在审
申请号: | 202110138117.6 | 申请日: | 2021-02-01 |
公开(公告)号: | CN112968950A | 公开(公告)日: | 2021-06-15 |
发明(设计)人: | 郑立国;贾金原;邵威;张乾;刘畅 | 申请(专利权)人: | 吉林动画学院;吉林吉动盘古网络科技股份有限公司 |
主分类号: | H04L29/08 | 分类号: | H04L29/08;H04N21/44;G06T15/50;G06T15/00 |
代理公司: | 北京盛凡智荣知识产权代理有限公司 11616 | 代理人: | 朱学绘 |
地址: | 130000 吉林省长春市高*** | 国省代码: | 吉林;22 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 轻量级 gpu 云烘培 web3d 实时 全局 光照 渲染 管线 | ||
1.一种轻量级GPU云烘培Web3D实时全局光照渲染管线,应用于全局光照协作式渲染系统,所述渲染系统由负责全局光照的云端和负责直接光照的前端构成,所述云端与前端之间通过WebSocket与WebRTC通信连接,其特征在于,所述渲染管线的实现方法包括以下步骤:
S1,保持云端场景属性与前端同步,同时前端与相同场景的其余前端点对点连接;
S2,云端基于GPU加速Lightmap烘培,对全局光照进行处理,具体包括:
S201,基于动态预测的方法,得到扩大的FOV数值,实现网络通讯延迟补偿;
S202,使用实时全局光照算法计算屏幕空间全局光照贴图;
S203,通过UV映射方式,结合插值后处理,增量式更新光照帖图;
S204,将光照贴图编码后使用WebRTC技术流式传输至前端;
S3,前端直接光照渲染,利用光照贴图进行实时全局光照渲染。
2.根据权利要求1所述的轻量级GPU云烘培Web3D实时全局光照渲染管线,其特征在于,所述的步骤S1中,保持云端场景属性与前端同步,同时前端与相同场景的其余前端点对点连接,具体包括:
统一云端与前端的场景模型,包括命名统一、层级关系统一、单位统一、格式统一、方向统一、模型UV通道数量及数据统一;
云端与前端之间,建立WebSocket、WebRTC连接,云端将已建立连接的相同场景的其他前端列表传输至指定的前端;
指定的前端与相同场景的其他前端之间通过WebRTC建立点对点连接;
云端与相同场景的其他前端并行传输改动前的轻量化原始场景;
指定的前端将改动的场景数据,包括模型方向、位置、材质信息、光源方向、位置、光强、颜色信息和当前时间信息,通过WebSocket传递至云端,云端根据传递数据修改场景。
3.根据权利要求1所述的轻量级GPU云烘培Web3D实时全局光照渲染管线,其特征在于,所述的步骤S201,基于动态预测的方法,得到扩大的FOV数值,实现网络通讯延迟补偿,具体包括:
基于场景帧画面数据、Lightmap全局光照辐照度数据、场景模型网络数据,使用关注度算法计算出当前帧、上一帧、上上帧关注点位置;
输入当前帧、上一帧、上上帧关注点位置,使用Dead Reckoning算法计算出下一帧关注点位置,以此为中心建立相机平截头体,计算出相机方向D′i+1、位置信息F′i+1;
输入当前帧、上一帧、上上帧相机方向、位置信息,使用Dead Reckoning算法计算出下一帧相机方向D″i+1、位置信息F″i+1,与上一步计算数据混合,得到最终的下一帧相机方向、位置信息:
Di+1=a·D′i+1+b·D″i+1 (1)
Fi+1=a·F′i+1+b·F″i+1 (2)
其中,a、b为权重系数,取值为a,b∈[0.0,1.0]且a+b=1.0,权重比例根据相应的DeadReckoning以及关注度算法手动调节;
以相机当前帧、下一帧方向与位置数据建立平截头体,计算当前帧、下一帧相机远平面右上角的点Pi与Pi+1的位置;
根据以下公式计算得到扩大的FOV数值:
其中,α为初始FOV大小,默认值为60°,v1=Pi-Fi、v2=Pi+1-Fi,Fi为当前帧相机位置,FOV的范围限制的[60°,120°]内。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于吉林动画学院;吉林吉动盘古网络科技股份有限公司,未经吉林动画学院;吉林吉动盘古网络科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110138117.6/1.html,转载请声明来源钻瓜专利网。