[发明专利]一种考虑人因的立体视在距离解算方法有效
申请号: | 201910273315.6 | 申请日: | 2019-04-04 |
公开(公告)号: | CN110060291B | 公开(公告)日: | 2023-01-31 |
发明(设计)人: | 权巍;赵云秀;韩成;李华;胡汉平;张超;蒋振刚;杨华民;冯欣;丁莹;姜珊;刘祎 | 申请(专利权)人: | 长春理工大学 |
主分类号: | G06T7/593 | 分类号: | G06T7/593 |
代理公司: | 吉林长春新纪元专利代理有限责任公司 22100 | 代理人: | 王薇 |
地址: | 130022 吉林省长春市卫星*** | 国省代码: | 吉林;22 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 考虑 立体 距离 方法 | ||
本发明涉及一种基于人因的立体视在距离解算模型,其特征在于:提取图像在屏幕上的视差,计算其立体深度;其次,提取图像的感兴趣区域,获取其视差角、宽度角与前后景对比度,根据客观视觉舒适度解算模型计算其舒适度;然后,通过主观实验,获得立体图像主观感知的视在距离值;最后,通过主观测量值,建立解算的立体深度与客观舒适度的关联关系,建立基于立体舒适度的视在距离解算模型;将模型出发点建立在人眼的基础上,使得模型更具客观性,对立体拍摄起到更好的指导作用;结合立体深度、立体视觉舒适度等,综合考量多维因素,使得模型评价结果更为准确、可信度高。
技术领域
本发明涉及一种考虑人因的立体视在距离解算方法,属于计算机视觉、图像处理技术领域。
背景技术
近些年,立体技术、相关硬件技术发展迅速,立体视频和游戏等借助手机、平板、电视、电影、以及各种头盔显示器等媒介全面进入普通大众生活。立体视频观看过程中的立体感是立体显示优于二维显示的最主要特征,因此必须恰当控制立体感的强弱,既要避免没有任何视觉冲击的“假立体”画面,也不能出现令观赏者不适、甚至无法实现立体融合的情况。
基于左右眼立体图像、拍摄和播放环境参数等众多因素可求解立体深度信息。而实际上用户通过各种媒介观看到的立体效果与求解的立体深度存在差异。现阶段,在立体整个生命周期中,只有观赏者最终观看后才能根据观赏体验效果了解立体效果情况,无法实现及时的立体感控制。
立体视在距离即观看者所感知到的立体信息的空间距离,不同于“立体深度”可以直接解算,视在距离的影响因素复杂多样,除“立体深度”解算模型中涉及到的因素外还包含观看者自身因素,即人因。由于立体影像在人眼视网膜上成像不同于人眼观看正常立体实物,在观看过程中会由于“调节-聚合”等问题造成视觉舒适度较低,即观看体验较差,因而会产生一定的疲劳感造成感知的视在距离与解算的立体深度值有一定的出入。因此,必须考虑人因才能更准确的解算立体视在距离。
发明内容
本发明的目的在于提供一种基于人因的立体视在距离解算模型,其由于人类在空间感知方面,虚拟环境中人感知到的视在距离与实际深度存在显著的误差;虽然现实世界中的视在距离估计精确度约为94%,但在虚拟环境中平均下降到80%左右,即低估或压缩20%,同时感知到的视在距离受视差、颜色及亮度等因素影响。鉴于此,本发明以立体深度解算模型为基础,并以客观舒适度模型解算结果作为人因反馈,建立立体视在距离解算模型,自动完成视在距离的计算,获得了更为准确的视在距离。
本发明技术方案是这样实现的:一种基于人因的立体视在距离解算模型,其特征在于:提取图像在屏幕上的视差,计算其立体深度;其次,提取图像的感兴趣区域,获取其视差角、宽度角与前后景对比度,根据客观视觉舒适度解算模型计算其舒适度;然后,通过主观实验,获得立体图像主观感知的视在距离值;最后,通过主观测量值,建立解算的立体深度与客观舒适度的关联关系,建立基于立体舒适度的视在距离解算模型;其具体的步骤如下:
步骤1、提取立体图像对放映时的屏幕视差,根据下式计算其立体深度:
其中,SD表示解算的立体深度,e表示观看者的眼瞳距离(一般常取6.5cm),V表示观看者距播放屏幕的距离,Z表示播放时屏幕上立体图像对的视差;
步骤2、分别得到立体图像的前景区域视差角、宽度角及前后景区域对比度,根据下式计算其客观视觉舒适度:
VC(D,w,c)=4.8736-0.7084D+0.1912ln(w)-0.0208Dln(w)+0.0015c2-0.0572c
(0.50≤D≤2.00,0.25≤w≤4.00)
其中,D表示前景区域的视差角,w表示前景区域的宽度角,c表示前景区域与后景区域的对比度。要求视差角在范围0.5°~2.0°内,宽度角在范围0.25°~4.0°内;VC为客观立体视觉舒适度;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于长春理工大学,未经长春理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910273315.6/2.html,转载请声明来源钻瓜专利网。