[发明专利]一种基于多视角双目结构光的水下三维重建方法在审
申请号: | 202111083286.0 | 申请日: | 2021-09-16 |
公开(公告)号: | CN113971691A | 公开(公告)日: | 2022-01-25 |
发明(设计)人: | 胡业琦;董军宇;范浩;解志杰;贾振霖;杜秀瑞 | 申请(专利权)人: | 中国海洋大学 |
主分类号: | G06T7/521 | 分类号: | G06T7/521 |
代理公司: | 北京喆翙知识产权代理有限公司 11616 | 代理人: | 范琳 |
地址: | 266000 山*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 视角 双目 结构 水下 三维重建 方法 | ||
本发明公开一种基于多视角双目结构光的水下三维重建方法,属于计算机视觉水下三维重建技术领域,其包括以下方法步骤:相机参数标定,首先调整相机的焦距、光圈直至获取到的图像清晰,固定好相机的焦距、光圈使其在图像采集过程中不变,拍摄若干组标定板图像,使用张正友标定法标定相机的内参数,整个参数标定过程在空气中完成;本发明提供了一种新型的水下目标物体的三维重建方法,免去了对相机进行水密加工的步骤,降低了设备制作成本;本发明采用固定多视角的方式可以重建水下物体进行完整的三维模,使用双目结构光能够重建低纹理物体表面;依靠本发明提供的方法,可以对水下物体进行三维重建,重建出高精度、完整、细节丰富的三维模型。
技术领域
本发明属于计算机视觉水下三维重建技术领域,涉及一种基于多视角双目结构光的水下三维重建方法。
背景技术
三维重建是指将真实场景的三维物体在计算机中构建数学模型的过程,可以用来获取、分析现实世界中物体的外形结构、几何信息等,能够全方位的展示真实物体的特性。三维重建具有相当广泛的用途,在计算机动画、地貌测量、数字文物典藏、人机交互、现代医学等多个领域都可见其应用。水下三维重建则可以应用于海底勘探、海底环境探测等领域,具有重要的研究价值与实用意义。
双目结构光是一种基于结构光编解码来实现高精度三维重建的技术。相比于双目立体视觉、激光扫描等技术,双目结构光既有双目视觉测量方面的理论基础,可以省去对投影仪复杂的标定,又有结构光来增加物体表面的几何特征信息,能够避免双目立体视觉中对弱纹理或重复纹理区域匹配困难的问题,从而较传统的双目立体视觉测量方法有更高的测量精度。但目前双目结构光多用于空气中的三维测量任务,若应用于水下,还面临着水中折射与散射问题。
水中折射与散射的影响会给测量精度带来极大的误差,因此为了修正折射与散射导致的误差以获得高精度的三维重建结果,需要结合水下折射模型将双目结构光技术应用于水下,从而利用水下双目结构光技术实现高精度的三维重建。
然而,在三维重建过程中,单视角的三维重建仅能够获取到单一视角下的物体的三维数据信息,不能够获取到真实物体全景的三维数据。因此,需要将各个视角下获取到的三维数据进行配准、融合,因此,我们提出一种基于多视角双目结构光的水下三维重建方法来解决以上问题。
发明内容
本发明提供了一种基于多视角双目结构光的水下三维重建方法,通过单视角水下双目结构光技术分别获取各个视角下的真实水下场景的物体的三维信息,然后将各视角的三维点云进行融合,从而保证在低成本的情况下构建出完整的水下目标物体的三维模型。
为了实现上述目的,本发明采用了如下技术方案:
一种基于多视角双目结构光的水下三维重建方法,包括以下方法步骤:
S1、相机参数标定,首先调整相机的焦距、光圈直至获取到的图像清晰,固定好相机的焦距、光圈使其在图像采集过程中不变,拍摄若干组标定板图像,使用张正友标定法标定相机的参数,整个参数标定过程在空气中完成;
S2、图像采集,使用DLP光机投射一系列编码结构光的图像,包括以下步骤:
S21、采用10位格雷码条纹图,包括10张纵向正格雷码,10张纵向逆格雷码,格雷码条纹图是黑白条纹相间的图像,其中,黑色条纹,代表编码值为0,白色条纹,代表编码值为1;正格雷码条纹图用于对二维图像的行进行编码,逆格雷码条纹图与正格雷码条纹图编码值相反,正格雷码条纹图中的黑色条纹变为白色条纹,白色条纹变为黑色条纹,逆格雷码条纹图用来辅助目标物体图像的二值化操作;
S22、将目标物体置于水中,使用投影光机按顺序向目标物体投射格雷码条纹图,每投射一张格雷码条纹图,左右目相机就分别捕捉一张图像,双目相机依次捕捉带有格雷码条纹图的目标物体图像,直至20张格雷码条纹图投射结束,关闭双目相机和投影光机;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国海洋大学,未经中国海洋大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111083286.0/2.html,转载请声明来源钻瓜专利网。