[发明专利]使用光线投射法的基于图像的多个深度图像的几何融合有效
申请号: | 202010585224.9 | 申请日: | 2020-06-24 |
公开(公告)号: | CN111741286B | 公开(公告)日: | 2022-08-16 |
发明(设计)人: | 乌格斯·霍佩;里卡多·马丁·布鲁瓦利亚;哈里斯·诺弗 | 申请(专利权)人: | 谷歌有限责任公司 |
主分类号: | H04N13/271 | 分类号: | H04N13/271;H04N13/282;G06T15/20;G06T15/06;G06T15/00;G06T5/50 |
代理公司: | 中原信达知识产权代理有限责任公司 11219 | 代理人: | 李佳;邓聪惠 |
地址: | 美国加利*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 使用 光线 投射 基于 图像 深度 几何 融合 | ||
本公开涉及使用光线投射法的基于图像的多个深度图像的几何融合。渲染图像的技术包括:在沿着来自指定视点的光线的距给定深度图像的投影距离方面,生成沿着该光线的带有符号的距离值(SDV)。对于从指定视点的透视角的图像中的每个像素,光线被追踪到由该图像表示的三维场景中。沿着光线执行迭代步骤,在每个迭代中获得三维世界空间点p。结果是如从深度视图Dj中所测量的带有符号的距离sj。如果带有符号的距离sj的绝对值大于某个截断阈值参数,则该带有符号的距离sj被特定的未定义值替换。定义的带有符号的距离值被聚合以获得总体带有符号的距离s。最后,带有符号的距离场的根或零集(等值面)被确定。
技术领域
此说明书涉及多个深度图像的融合。
背景技术
一些被配置成渲染计算机图形对象的计算机可以在给定多个、现有视图的情况下在指定的视图处渲染对象。例如,考虑到从相机捕获的关于包括这样的计算机图形对象的场景的数个深度图像和彩色图像,目标可能是从不同的视点合成场景的新视图。场景可以是真实的或者可以是合成的,在场景可以是真实的情况下使用物理颜色和深度传感器捕获视图,在场景可以是合成的情况下使用诸如光栅化或光线追踪法的渲染算法捕获视图。对于真实场景,存在许多深度感测技术,诸如飞行时间传感器、基于结构光的传感器以及立体或多视图立体算法。此类技术可能涉及具有被动或主动照明模式的可见或红外传感器,其中这些模式可能会随时间变化。
发明内容
在一个总体方面,一种方法可以包括:由被配置成渲染对象图像的计算机的处理电路,接收表示对象的多个深度图像的深度图像数据,所述多个深度图像中的每个是从相应视点捕获到的对象的深度图像,该深度图像表示图像捕获设备与对象之间的距离。该方法还可以包括:接收表示对象的图像的目标视点的视点数据,该目标视点与从其捕获多个深度图像中的每个的相应视点不同,图像包括多个像素。该方法可以进一步包括生成表示朝向图像的多个光线的光线数据,所述多个光线中的每个光线对应于图像的多个像素中的相应像素。该方法可以进一步包括对于多个光线中的每个光线:生成带有符号的距离值(SDV)数据,该SDV数据表示沿着该光线的多个位置中的每个位置处的多个SDV,在沿着该光线的多个位置中的每一个处的多个SDV中的每个对应于多个深度图像中的相应深度图像;对在沿着该光线的多个位置中的每个位置处的SDV数据执行聚合操作,以产生沿着该光线的聚合SDV数据,该聚合SDV数据表示沿着光线的多个位置中的每个位置处的聚合SDV;以及确定沿着该光线的聚合SDV满足指定条件的位置。该方法可以进一步包括:基于沿着多个光线的该光线的相应聚合的SDV等于指定值的位置来生成从指定视点的角度捕获到的对象的深度图像。
在下面的附图和描述中阐述一个或多个实施方式的细节。其他特征将从说明书和附图中并从权利要求书中显而易见。
附图说明
图1是图示用于实现本文描述的技术方案的示例电子环境的图。
图2是图示在图1中所示的电子环境内执行技术方案的示例方法的流程图。
图3是图示用于根据在图1中所示的电子环境中执行的技术方案确定沿着光线的在指定视点处的深度图处被确定的点的示例几何结构的图。
图4是图示根据图1中所示的电子环境中执行的技术方案生成的示例融合深度图的图。
图5图示可以与这里描述的电路一起使用的计算机设备和移动计算机设备的示例。
具体实施方式
本文描述的背景是根据现有视图的计算机图形渲染。考虑到从相机捕获的关于场景的数个深度图像和彩色图像,期望从不同的视点合成场景的新视图。场景可以是物理的(在这种情况下,使用物理颜色和深度传感器捕获视图),或者是合成的(在这种情况下,使用诸如光栅化或光线追踪的渲染算法捕获视图)。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于谷歌有限责任公司,未经谷歌有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010585224.9/2.html,转载请声明来源钻瓜专利网。