[发明专利]一种视觉自适应裸眼3D图像处理方法及装置在审
申请号: | 201910080968.2 | 申请日: | 2019-01-28 |
公开(公告)号: | CN109819231A | 公开(公告)日: | 2019-05-28 |
发明(设计)人: | 李波;高波;牛德彬;张晓辰;崔向东;周林林 | 申请(专利权)人: | 北京牡丹电子集团有限责任公司数字电视技术中心 |
主分类号: | H04N13/122 | 分类号: | H04N13/122;H04N13/302 |
代理公司: | 北京轻创知识产权代理有限公司 11212 | 代理人: | 孟鹏超 |
地址: | 100191*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 瞳距 观察 数据信息 裸眼3D图像 脸部特征 图像信息 数据源 自适应 视觉 用户体验 多视角 裸眼3D 视频 图像 观看 分析 | ||
1.一种视觉自适应裸眼3D图像处理方法,其特征在于,包括:
获取当前观察者脸部特征的图像信息;
对所述当前观察者脸部特征的图像信息进行分析,生成当前观察者的实际瞳距数据信息;
根据所述当前观察者的实际瞳距数据信息对3D图像的数据源进行调节,生成与当前观察者的瞳距相适应的3D图像。
2.根据权利要求1所述的一种视觉自适应裸眼3D图像处理方法,其特征在于,所述对所述当前观察者脸部特征的图像信息进行分析,生成当前观察者的实际瞳距数据信息的步骤,包括:
获取当前观察者脸部特征的图像信息中观察者的左眼图像位置信息以及右眼位置信息;
对所述左眼图像位置信息以及所述右眼位置信息进行分析,生成观察者脸部特征的图像瞳距数据信息;
根据获取的真实空间的尺寸因素检测信息对所述观察者脸部特征的图像瞳距数据信息进行转换,生成三维空间坐标系下的当前观察者的实际瞳距数据信息。
3.根据权利要求1所述的一种视觉自适应裸眼3D图像处理方法,其特征在于,所述根据所述当前观察者的实际瞳距数据信息对3D图像的数据源进行调节,生成与当前观察者的瞳距相适应的3D图像的步骤,包括:
采集第一双路视频影像信息;
对所述双路视频影像信息进行实时压缩、解码以及畸变校正,生成第二双路视频影像信息;
根据所述当前观察者的实际瞳距数据信息对所述第二双路视频影像信息中的实时场景进行深度计算以及合成,生成与当前观察者的瞳距相适应的3D图像。
4.根据权利要求3所述的一种视觉自适应裸眼3D图像处理方法,其特征在于,所述根据所述当前观察者的实际瞳距数据信息对所述第二双路视频影像信息中的实时场景进行深度计算以及合成,生成与当前观察者的瞳距相适应的3D图像的步骤,包括:
获取所述第二双路视频影像信息中的实时场景中的视差角信息;
对所述视差角信息进行分析,生成视差范围信息;
对所述视差范围信息、获取的像点相关性信息以及获取的调节因子信息进行分析,生成当前观察者的最大视差角动态约束信息;
根据所述当前观察者的最大视差角动态约束信息对第二双路视频影像信息中立体影像对的合成偏移进行处理,生成与当前观察者的瞳距相适应的3D图像。
5.根据权利要求4所述的一种视觉自适应裸眼3D图像处理方法,其特征在于,所述像点相关性信息通过下述方法获得:
获取多个第二双路视频影像信息中的实时场景的任意一点;
对多个所述第二双路视频影像信息中的实时场景的任意一点进行分析,生成像点相关性信息。
6.根据权利要求5所述的一种视觉自适应裸眼3D图像处理方法,其特征在于,在显示界面中建立坐标系,所述第二双路视频影像信息中的实时场景的任意一点通过下述公式计算:
Pc(xc,yc,zc)=(B·XL|D,B·Y|D,B·F|D),
其中,Pc(xc,yc,zc)为第二双路视频影像信息中的实时场景的任意一点;B为当前观察者的实际瞳距;D为立体影像对的视差,D=XL-XR;F为当前观察者的两眼的焦距;X为从左眼指向右眼的方向;XL为点在X轴的相对位置;Y为坐标系中垂直向下的Y轴;z为向显示界面观察的方向;
所述像点相关性信息通过下述公式计算:
其中,W为像点相关性;dmax为最大视距;dmin为最小视距;m为模板尺寸,即显示界面的尺寸;Iright为右边的图像;Ileft为左边的图像;i为左视点到显示界面中心的距离;d为左视点到界面边界的距离;x,y为像点在左右影像中的线束坐标。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京牡丹电子集团有限责任公司数字电视技术中心,未经北京牡丹电子集团有限责任公司数字电视技术中心许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910080968.2/1.html,转载请声明来源钻瓜专利网。