[发明专利]一种基于点云自适应修复的高反光表面结构光场三维重建方法有效
申请号: | 202110550649.0 | 申请日: | 2021-05-17 |
公开(公告)号: | CN113205593B | 公开(公告)日: | 2022-06-07 |
发明(设计)人: | 冯维;曲通;高俊辉;程雄昊;周世奇;祝振敏;张福民;赵大兴 | 申请(专利权)人: | 湖北工业大学 |
主分类号: | G06T17/00 | 分类号: | G06T17/00;G06T7/80;G06T7/62;G06T7/30;G06T7/00;G06T3/40 |
代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 王琪 |
地址: | 430068 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 自适应 修复 反光 表面 结构 三维重建 方法 | ||
1.一种基于点云自适应修复的高反光表面结构光场三维重建方法,其特征在于,包括以下步骤:
步骤1,搭建结构光场三维重建系统,提取多视角光场子孔径图像;所述结构光场三维重建系统包括聚焦型光场相机、数字投影仪、电动平移台、计算机和检测物体;
步骤2,结构光场三维重建,具体包括如下子步骤:
步骤2.1,首先将参考平面固定于平移台上,用投影仪投射相移条纹序列至参考平面上,通过计算机进行相位解算可计算出各点绝对相位,然后从初始位置0mm处按一定步长沿着投影仪投射光的方向移动平移台数次,在每个位置分别进行上述步骤,可得每个位置处的绝对相位;然后计算每个位置的绝对相位与初始位置0mm处的绝对相位作差得到多组绝对相位差;最后计算图像上每个像素点相位差与参考平面移动距离,即场景深度的线性映射关系;
步骤2.1中每个像素点的绝对相位与场景深度的映射关系,表示如下;
其中,
其中,建立世界坐标系YOZ,和投影仪坐标系YProOZPro,YPro轴方向为投影仪的光轴方向,ZPro轴所在平面垂直于投影仪的光轴方向,f为投射结构光的空间频率;光线由聚焦型光场相机记录,与微透镜阵列和图像传感器相交于a点和b点,P代表投影仪,(Yp,Zp)表示投影仪在世界坐标系下的坐标,(Ya,Za)和(Yb,Zb)分别是世界坐标中的点a和点b,|C1C2|是光线PC1和PC2分别与YP交点的距离,kYP是YPro轴在YOZ坐标系中的斜率;
步骤2.2,将物体置于参考平面的初始位置,投射正弦条纹序列到物体上,并使用聚焦型光场相机进行拍照,得到多视角下的经过物体调制的正弦条纹序列,获得每个视角下的正弦条纹序列图像上每个像素点对应的绝对相位,与之前参考平面在初始位置时的每个点的绝对相位进行作差,可得到多个视角下的图像上每个点的相位差,将相位差带入到线性映射关系中,可得到多个视角下物体的高度信息,从而得到被测物体多个视角下的点云,实现了多视角深度重建;
步骤3,基于ICP算法的点云自适应修复以修复多视角重建过程中由于过曝光而丢失的信息,具体实现如下:
选择中心子孔径图像重建得到的点云,简称为中心点云作为待修复点云,为了确定点云中缺失部分的位置和面积,将中心点云Pc沿z轴方向投影到XOY平面上,即将点云中每个点(x,y,z)的z值取0,其中x和y是图像像素坐标,z表示物体的高度;
通过判断每个像素中是否存在点,得到二值图像Ib,灰度值为0表示该位置缺失点,灰度值为1表示存在点,对Ib进行8邻域连通域分析,记录面积大于一定像素的0值区域的位置,视为缺失部分{M};
然后,利用点云配准ICP算法对不同视角的点云与Pc进行配准,得到融合点云Pf,根据{M}中的坐标从Pf中提取相应区域,并与Pc进行拼接,得到修复后的点云Pr;
将修复后的Pr投影至XOY平面上,得到缺失部分的坐标集{M’},然后判断缺失部分是否低于预设期望值,如果不低于预设值,迭代修复Pr,得到最终的重建结果。
2.如权利要求1所述的一种基于点云自适应修复的高反光表面结构光场三维重建方法,其特征在于:步骤1中首先对聚焦型光场相机中微透镜圆心位置进行标定,每个微透镜在图像传感器上对应的像素区域为宏像素,在稳定光照环境下,用光场相机拍摄纯白场景,采集到由白点阵列组成的白图像,然后根据白图像上的白点阵列对聚焦型光场相机维透镜阵列位置进行标定;
通过阈值处理和圆心检测从白图像上的白点阵列得到宏像素的中心点,即微透镜圆心在图像传感器上的投影坐标集合{C(s,t)},其中s、t指宏像素中心点在图像传感器上的坐标,提取每个宏像素中相同位置的一定大小的图像元,拼接成不同视角的子孔径图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖北工业大学,未经湖北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110550649.0/1.html,转载请声明来源钻瓜专利网。