[发明专利]结合激光点阵和偏振视觉的双目三维成像方法在审
申请号: | 201911285489.0 | 申请日: | 2019-12-13 |
公开(公告)号: | CN111121722A | 公开(公告)日: | 2020-05-08 |
发明(设计)人: | 陆健;刘晓刚;刘礼城;林新迪;张宏超 | 申请(专利权)人: | 南京理工大学;上海航天控制技术研究所 |
主分类号: | G01C11/00 | 分类号: | G01C11/00 |
代理公司: | 南京理工大学专利中心 32203 | 代理人: | 陈鹏 |
地址: | 210094 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 结合 激光 点阵 偏振 视觉 双目 三维 成像 方法 | ||
1.一种结合激光点阵和偏振视觉的双目三维成像方法,其特征在于,该方法基于双目三维成像系统,系统包括随机点阵激光模组(1)、镜片组模块(2)、双目偏振相机(3)、固定云台(4)和计算机(5),所述方法包括以下步骤:
步骤1、对双目偏振相机(3)进行标定得到标定参数,再由随机点阵激光模组(1)中连续激光器出射的激光经过准直透镜和衍射光栅形成激光点阵,激光点阵经过调焦后作用在目标物体上;
步骤2、由镜片组模块(2)进行滤波,滤除环境背景干扰光,抑制一部分耀光,再由标定后的双目偏振相机(3)获得0度、45度、90度、135度四对不同偏振角度目标物体图像,并筛选出表面耀光最小,像素饱和点最少的一对图像作为有效目标图像;
步骤3、将步骤2中得到的左右相机图像利用步骤1得到的标定参数进行极线校正,得到校正后的左右相机目标图像;
步骤4、将步骤3得到的左右目标图像进行预处理,步骤3得到的图像中的点阵所成像是一个个散斑,先将所有散斑中覆盖像素点数小于设定阈值的散斑作为噪声点滤除,阈值由所有散斑平均覆盖的像素点决定,然后对剩下的每个散斑进行标记,标记方法是将整个散斑进行高斯拟合,拟合得到的中心点作为新的坐标,该坐标即作为散斑的代表点坐标,即一个点代表一个散斑;
步骤5、将步骤4预处理得到的左右目标图像进行叠加,以左图像作为参考图像,左图像上的代表点作为参考点,在一定范围内横向向左搜索右图像上的最近代表点,该范围为匹配阈值,匹配阈值是一个可调参数,并计算两点列坐标的差值作为该参考点的视差;
步骤6、利用步骤5得到的参考点坐标和视差,结合相机的标定参数,计算得到各个点的世界坐标,即得到目标的表面三维点云,从而得到目标的相对位置和姿态信息;
步骤7、根据步骤6得到的结果来分别调整点云密度和匹配阈值,并重复步骤1到步骤6从而得到三维点云,若只调整匹配阈值则只重复步骤5到步骤6;
步骤8、利用步骤2中得到的所有角度偏振图像进行点云计算,重复步骤3到6,将四组点云进行点云融合得到目标表面三维成像。
2.根据权利要求1所述的结合激光点阵和偏振视觉的双目三维成像方法,其特征在于,所述镜片组模块(2)中包含滤波片和/或偏振片。
3.根据权利要求1所述的结合激光点阵和偏振视觉的双目三维成像方法,其特征在于,步骤5具体为:
将步骤4预处理得到的左右图像进行叠加,然后将左图像作为参考图像,左图像点阵代表点作为参考点,并与右图像进行逐点匹配,匹配方法是以左图像参考点作为出发点,向左横向搜索右图像中离它最近的点就是对应匹配点,参考点和匹配点之间的列坐标差值作为视差,并筛除视差突变的点,横向搜索范围即最大、最小搜索高度,由极线校正精度和光斑中心计算精度决定,纵向搜索距离即最大、最小搜索宽度,由点阵密度和工作距离决定,横向和纵向搜索范围组成匹配阈值。
4.根据权利要求1所述的结合激光点阵和偏振视觉的双目三维成像方法,其特征在于,步骤6具体为:
利用步骤5得到的参考点像素坐标和对应视差,结合双目相机标定参数,利用重投影法计算得到每个点的世界坐标X、Y、Z,世界坐标系与校正后的左相机坐标系重合,或者利用左相机的校正矩阵逆运算将世界坐标系与校正前左相机坐标系重合,利用这些点进行点云重构,得到目标的位置和姿态,点云的密度由步骤1产生的激光点阵密度和目标图像对数决定。
5.根据权利要求1所述的结合激光点阵和偏振视觉的双目三维成像方法,其特征在于,所述随机点阵激光模组(1)包括连续激光器、衍射光栅和准直透镜,所述连续激光器的输出波长是近红外波段,衍射光栅采用随机点阵DOE镜片,用于产生不同的点阵分布和点云密度。
6.根据权利要求1所述的结合激光点阵和偏振视觉的双目三维成像方法,其特征在于,所述极线校正采用Bouguet极线校正。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京理工大学;上海航天控制技术研究所,未经南京理工大学;上海航天控制技术研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911285489.0/1.html,转载请声明来源钻瓜专利网。