[发明专利]应用于头跟踪虚拟现实系统的感知深度映射方法有效
申请号: | 201510519808.5 | 申请日: | 2015-08-21 |
公开(公告)号: | CN105072433B | 公开(公告)日: | 2017-03-22 |
发明(设计)人: | 李大锦;李一晴 | 申请(专利权)人: | 山东师范大学 |
主分类号: | H04N13/00 | 分类号: | H04N13/00;H04N13/02 |
代理公司: | 济南圣达知识产权代理有限公司37221 | 代理人: | 赵妍 |
地址: | 250014 山*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 应用于 跟踪 虚拟现实 系统 感知 深度 映射 方法 | ||
技术领域
本发明涉及计算机多媒体领域,尤其涉及一种应用于头跟踪虚拟现实系统的感知深度映射方法。
背景技术
立体显示是通过模拟人类双眼视觉的图像视差,使观看者在观看图像时形成纵深的视觉感知。在虚拟现实系统中,立体显示可有效的增强真实感和沉浸性。但是在立体显示中,由于人眼辐辏和聚焦的冲突,也会造成视觉疲劳。在软件上解决视觉疲劳的最好方法是通过减小双眼图像的视差来来减少辐辏和聚焦的冲突。视差减少意味着感知深度也会减少。因此当观看者在观看立体图像时,有一个适宜的感知深度范围。将感知深度压缩到适宜的感知深度范围之内的方法称为深度映射。
在虚拟现实系统中,传统的深度压缩方法是通过减小双眼相机的轴距来实现深度映射。但是由于深度映射会导致感知物体产生两个方向上的变形:一是沿观看方向产生挤压变形是物体看起来趋于扁平;二是感知物体以双眼相机的中心线作为基准位置发生斜切变形。在头跟踪系统中,由于拍摄立体图像的双眼相机随着头部的运动而运动,感知物体的斜切变形的基准线也会随着头部的运动而运动,从而导致感知图像会随着头部的运动而移动,这种图像的移动称之为“图像漂移”。
发明内容
为了解决传统的深度映射方法在头跟踪系统中产生的图像漂移问题,本发明提供了一种应用于头跟踪虚拟现实系统的感知深度映射方法。该方法利用与实际双眼距离相同的相机轴距来拍摄图像,利用固定的斜切变形基准线对虚拟场景进行深度压缩变换。该方法不仅可以消除头跟踪虚拟现实系统中的图像漂移问题,还可以灵活的实现线性和非线性深度映射。
为了实现上述目的,本发明采用以下技术方案:
一种应用于头跟踪虚拟现实系统的感知深度映射方法,包括:
步骤一:获取场景物体的立体图像,并判断场景物体的立体图像的头部状态是否发生变化,若未发生变化,则采用与用户双眼距离相同的相机轴距的双相机拍摄场景物体的立体图像;若发生变化,则进入下一步;
步骤二:调整双相机的0视差投影面到双相机中点位置的距离,使双相机中点到投影面的距离与物理显示屏幕到用户双眼中心的距离相同;
步骤三:根据屏幕尺寸和视点位置来确定感知深度适宜区,将投影面两侧场景物体沿深度方向进行缩放变换且向投影面做挤压,使场景深度范围位于确定的感知深度适宜区内;
步骤四:根据透视投影几何对场景物体进行斜切变换,利用双相机进行拍摄场景物体的立体图像。
所述步骤四中,以双相机中点在垂直于投影面并穿过投影面中心的轴线上的投影作为计算斜切变换的透视参考点。
所述步骤三中将投影面两侧场景物体沿深度方向进行缩放变换的方法包括线性缩放变换映射和非线性缩放变换映射。
以透视参考点为坐标原点,以投影面的中垂线为Z轴,以水平方向为X轴,竖直方向为Y轴建立坐标系,模型顶点坐标从(x,y,z)经过缩放和斜切变换后被变换到(x’,y’,z’);
在该坐标空间内对模型进行沿深度方向上进行线性缩放变换映射,深度方向上的缩放变换为:
其中,f为相机的远裁剪面距离,f'为感知深度适宜区的远边界到相机距离,F为双相机中点距离投影平面。
投影面两侧场景物体在水平和垂直方向上的斜切变换为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山东师范大学,未经山东师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201510519808.5/2.html,转载请声明来源钻瓜专利网。