[发明专利]对场景进行立体渲染的方法、图形图像处理装置及设备、系统有效
申请号: | 201110070830.8 | 申请日: | 2011-03-23 |
公开(公告)号: | CN102157012A | 公开(公告)日: | 2011-08-17 |
发明(设计)人: | 徐振华 | 申请(专利权)人: | 深圳超多维光电子有限公司 |
主分类号: | G06T15/00 | 分类号: | G06T15/00;H04N13/00;G03B35/00 |
代理公司: | 北京安信方达知识产权代理有限公司 11262 | 代理人: | 栗若木;颜涛 |
地址: | 518053 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 场景 进行 立体 渲染 方法 图形图像 处理 装置 设备 系统 | ||
1.一种对场景进行立体渲染的方法,包括:
计算出待渲染场景的与场景和相机间距离相关的深度参数及待渲染场景的场景规模参数;
根据所述待渲染场景的与场景和相机间距离相关的深度参数及场景规模参数,确定第一相机和第二相机的零视差面深度;
基于确定的所述零视差面深度,使用所述第一相机和第二相机对所述待渲染场景分别进行渲染。
2.如权利要求1所述的方法,其特征在于:
所述待渲染场景的与场景和相机间距离相关的深度参数包括待渲染场景的最小深度、平均深度和最大深度,所述平均深度等于所述待渲染场景中所有像素点的深度的平均值;
所述待渲染场景的场景规模参数包括所述最大深度减去最小深度得到的深度差。
3.如权利要求2所述的方法,其特征在于:
所述根据所述待渲染场景的与场景和相机间距离相关的深度参数及场景规模参数,确定第一相机和第二相机的零视差面深度,包括:
根据所述最小深度、平均深度和最大深度的加权运算结果确定所述零视差面深度;其中,在各自的权值边界之内,所述最小深度的权值随所述最小深度和深度差的增大而增大,所述平均深度和最大深度的权值随所述最小深度和深度差的增大而减小或保持不变。
4.如权利要求3所述的方法,其特征在于:
所述最小深度、平均深度和最大深度的加权运算结果是对所述最小深度、平均深度和最大深度进行加权平均运算得到的结果,各深度参数的权值均大于等于0且小于等于1,且各深度参数的权值之和等于1。
5.如权利要求4所述的方法,其特征在于:
所述最大深度的权值为零,所述最小深度的权值根据所述最小深度和深度差的加权和及相应的权值边界得到,所述加权和在所述权值边界之内时,所述最小深度的权值等于所述加权和;所述加权和超过所述权值边界的上边界或下边界时,所述最小深度的权值等于所述上边界或下边界。
6.如权利要求5所述的方法,其特征在于:
所述最小深度的权值根据所述最小深度和深度差的加权和及相应的权值边界得到,其中,所述最小深度的权值和所述深度差的权值之和的倒数等于远裁剪面和近裁剪面之间的深度差的绝对值,所述相应的权值边界中的上边界小于1。
7.如权利要求1至6中任一权利要求所述的方法,其特征在于:
使用所述第一相机和第二相机对所述待渲染场景分别进行渲染之前,按以下方式确定进行渲染时所述第一相机和第二相机之间的第一间距:
基于确定的零视差面深度,计算出所述待渲染场景中具有所述最大深度的像素点在第一视图和第二视图的视差等于允许的最大正视差时,所述第一相机和第二相机之间的第二间距;
基于确定的零视差面深度,计算出所述待渲染场景中具有所述最小深度的像素点在第一视图和第二视图的视差等于允许的最大负视差时,所述第一相机和第二相机之间的第三间距;
将所述第二间距和第三间距中较小的一个确定为所述第一间距。
8.一种图形图像处理装置,其特征在于,包括:
场景分析模块,用于计算出待渲染场景的与场景和相机间距离相关的深度参数及待渲染场景的场景规模参数;
参数确定模块,又包括:深度确定子模块,用于根据所述待渲染场景的与场景和相机间距离相关的深度参数及场景规模参数,确定第一相机和第二相机的零视差面深度;
立体渲染模块,用于基于确定的所述零视差面深度,使用所述第一相机和第二相机对所述待渲染场景分别进行渲染。
9.如权利要求8所述的图形图像处理装置,其特征在于:
所述场景分析模块包括:
统计子模块,用于计算出待渲染场景的与场景和相机间距离相关的深度参数,所述深度参数包括待渲染场景的最小深度、平均深度和最大深度,所述平均深度等于所述待渲染场景中所有像素点的深度的平均值;
计算子模块,用于计算出待渲染场景的场景规模参数,所述场景规模参数包括所述最大深度减去最小深度得到的深度差。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳超多维光电子有限公司,未经深圳超多维光电子有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201110070830.8/1.html,转载请声明来源钻瓜专利网。