[发明专利]基于轴向采集方式的集成成像深度图获取方法在审
申请号: | 202010000443.6 | 申请日: | 2020-01-06 |
公开(公告)号: | CN111127572A | 公开(公告)日: | 2020-05-08 |
发明(设计)人: | 杨絮;杨金晓;王宇 | 申请(专利权)人: | 长春理工大学 |
主分类号: | G06T7/90 | 分类号: | G06T7/90;G06T7/50;G06K9/62 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 130022 *** | 国省代码: | 吉林;22 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 轴向 采集 方式 集成 成像 深度 获取 方法 | ||
本发明公开一种轴向采集方式的集成成像深度图获取方法。主要包括两个步骤:根据轴向采集方式设置的参数以及采集的元素图像间同名像点距离的比例关系,计算三维物体点在元素图像中的同名像点坐标;根据同名像点颜色值的误差最小值,计算该点深度。传统集成成像系统获取深度图的方法利用微透镜阵列采集元素图像,由于尺寸的限制,采集到的元素图像分辨率非常低,所获取的深度图质量较差。本发明采用轴向分布相机采集,只需要一台相机沿光轴移动,运动简单并且可以采集到高分辨率的元素图像,充分利用了元素图像的纵向视差信息,可以有效的提取准确的深度图。
技术领域
本发明涉及一种三维深度信息获取方法,特别涉及一种利用轴向采集方式的集成成像系统中获取深度图的方法。
背景技术
三维场景深度信息在无人驾驶、机器人视觉、机器人避障、虚拟现实等领域有着广泛的应用。目前深度图的获取主要有两种方式,一种是通过深度相机进行拍摄获取,一种是通过从不同视点拍摄的两幅或更多幅图像来获取场景的深度信息。由于深度相机价格昂贵且获取的深度图分辨率较低,所以第二种方式成为获取深度图的主要手段。
集成成像(Integral Imaging,简称II),是一种用微透镜阵列来记录和显示空间场景信息的全真三维显示技术。采集时,3D物空间场景通过微透镜阵列被CCD相机采集,每个微透镜都从不同的方向记录一部分物体空间,生成的小图被称为元素图像。集成成像能够通过记录3D物体的不同视角来提取深度信息,目前已被用于深度图的获取。
但是传统集成成像系统获取深度图的方法也存在需要解决的问题,因为每个微透镜采集的元素图像分辨率非常低,获取的深度图质量较差。为了克服这个问题,可以使用多个相机或者移动相机代替微透镜阵列来采集场景信息,从而获得高分辨率图像。其中,2D相机阵列、单个相机沿水平和垂直方向移动的集成成像系统结构比较复杂,而轴向采集方式(一个相机沿光轴方向单向运动)结构简单,是一种比较有吸引力的集成成像系统获取深度图的方法。采集结构如图1所示,相机在距离物体一定位置处沿着相机光轴方向移动,每移动固定距离后拍摄一次,即可采集一幅元素图像,通过这种方式采集的多幅元素图像中含有三维场景的纵向透视信息,可以用来获取深度图。
因此,在采用轴向采集方式的集成成像系统中,研究如何获取深度图的方法,具有重要的应用价值。
发明内容
本发明提出了一种利用轴向移动相机的集成成像技术获取空间场景深度图的方法。首先相机在距离物体一定位置处沿着相机光轴方向移动,间隔固定的距离采集多幅高分辨率元素图像。已知某物体点的空间坐标,可以计算其在每幅元素图像中的投影点坐标。这里将物体点在各幅元素图像中对应的一系列投影点称为同名像点。只有在物体点的正确深度位置时,所计算的各个元素图像中的同名像点颜色值高度相似,即同名像点颜色值的统计误差最小。根据这一原理,可以针对三维物体深度范围内的不同深度值,分别计算某物体点在各个元素图像中同名像点颜色值的统计误差,误差最小值所对应的深度即为该物体点的深度。按照此方法能够获得三维物体的深度图。
本发明采取的技术方案包括下列步骤:
(一)、相机在距离三维物体一定距离处,沿着光轴方向以步距Δz的距离逐渐靠近物体采集元素图像,设相机的焦距为g,轴向移动N-1次,采集到N幅元素图像记为En(n=1,2,…N)。若三维物体点位于相机光轴上,N幅元素图像不能提供该点深度信息,所以物体应该与相机光轴具有一定的垂直距离;
(二)、计算三维物体点在En中的同名像点坐标;
根据透镜成像原理可知,在轴向分布采集系统中,三维物体的任意一个物点经透镜成像,都可以在轴向分布的元素图像上得到该物点所成的一系列像点,即同名像点。如图2所示,由轴向分布相机采集的元素图像间同名像点距离的比例关系,可以得到任一物体点在采集的一系列元素图像中的同名像点坐标,详细步骤如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于长春理工大学,未经长春理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010000443.6/2.html,转载请声明来源钻瓜专利网。