[发明专利]虚拟场景的渲染和装置、存储介质及电子设备有效
申请号: | 202110673725.7 | 申请日: | 2021-06-17 |
公开(公告)号: | CN113256781B | 公开(公告)日: | 2023-05-30 |
发明(设计)人: | 姜帆 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | G06T15/02 | 分类号: | G06T15/02;G06T15/04;G06T15/60 |
代理公司: | 北京康信知识产权代理有限责任公司 11240 | 代理人: | 赵静 |
地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 虚拟 场景 渲染 装置 存储 介质 电子设备 | ||
1.一种虚拟场景的渲染方法,其特征在于,包括:
获取第一图片对应的第一贴图文件,其中,所述第一图片中显示有目标虚拟物体,所述第一贴图文件包括所述目标虚拟物体中的每个像素点的深度值;
根据所述第一贴图文件中的所述每个像素点的深度值,确定第二图片对应的第二贴图文件,其中,所述第二图片是第一虚拟相机对目标虚拟光源照射的目标虚拟场景进行拍摄所得到的图片,所述第一虚拟相机位于所述目标虚拟光源所在的位置,所述目标虚拟场景中包括所述第一图片,所述第二贴图文件包括所述第二图片中的每个像素点的深度值;
根据所述第二贴图文件中的深度值,确定所述目标虚拟场景中的所述目标虚拟物体的投影区域;
根据所述目标虚拟场景中的所述目标虚拟物体的投影区域,对所述目标虚拟场景进行渲染。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一贴图文件中的所述每个像素点的深度值,确定第二图片对应的第二贴图文件,包括:
获取所述第一贴图文件中的第一像素点的深度值,其中,所述第一图片是第二虚拟相机对所述目标虚拟物体进行拍摄所得到的图片,所述第一像素点是所述目标虚拟物体中的像素点,所述第一像素点的深度值是根据第一距离和预设裁剪距离确定的归一化取值,所述第一距离为所述第一像素点所对应的位置与所述第二虚拟相机之间的距离;
根据所述第一像素点的深度值以及所述预设裁剪距离,确定所述第一像素点的偏移距离;
根据第二距离以及所述偏移距离,确定所述第二图片中的所述第一像素点的深度值,其中,所述第二距离是所述第二图片中的所述第一像素点所对应的位置与所述目标虚拟光源之间的距离。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一像素点的深度值以及所述预设裁剪距离,确定所述第一像素点的偏移距离,包括:
确定所述第一像素点的深度值与预设的所述第一图片的深度值之间的差值,其中,所述第一图片的深度值是根据第三距离和所述预设裁剪距离确定的归一化取值,所述第三距离为所述目标虚拟物体与所述第二虚拟相机之间的距离;
将所述第一像素点的偏移距离确定为等于所述差值与所述预设裁剪距离之间的乘积。
4.根据权利要求3所述的方法,其特征在于,所述根据第二距离以及所述偏移距离,确定所述第二图片中的所述第一像素点的深度值,包括:
在所述第一像素点的深度值小于所述第一图片的深度值时,获取所述第二距离与所述偏移距离之间的差值;根据所述第一虚拟相机的相机参数,对所述第二距离与所述偏移距离之间的差值进行归一化处理,得到所述第二图片中的所述第一像素点的深度值;
在所述第一像素点的深度值大于所述第一图片的深度值时,获取所述第二距离与所述偏移距离之间的加和值;根据所述第一虚拟相机的相机参数,对所述第二距离与所述偏移距离之间的加和值进行归一化处理,得到所述第二图片中的所述第一像素点的深度值。
5.根据权利要求1所述的方法,其特征在于,所述根据所述第二贴图文件中的深度值,确定所述目标虚拟场景中的所述目标虚拟物体的投影区域,包括:
获取第三图片中的第二像素点所对应的位置与第三虚拟相机之间的第四距离,其中,所述第三图片是所述第三虚拟相机对所述目标虚拟光源照射的所述目标虚拟场景进行拍摄所得到的图片,所述第二像素点是所述目标虚拟场景中除所述目标虚拟物体之外的像素点;
根据所述第四距离、所述第二像素点在预设的三维坐标系下的坐标、所述第三虚拟相机在所述三维坐标系下的坐标、以及所述目标虚拟光源在所述三维坐标系下的坐标,确定所述第二像素点所对应的位置与所述目标虚拟光源之间的第五距离;
根据所述第三虚拟相机的相机参数,对所述第五距离进行归一化处理,得到所述第二像素点的当前深度值;
在所述第二像素点的当前深度值大于所述第二贴图文件中的所述第二像素点的深度值时,将所述第二像素点确定为所述投影区域中的像素点。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110673725.7/1.html,转载请声明来源钻瓜专利网。