[发明专利]一种基于结构光的虚拟双目三维重建方法在审
申请号: | 201810827369.8 | 申请日: | 2018-07-25 |
公开(公告)号: | CN109191509A | 公开(公告)日: | 2019-01-11 |
发明(设计)人: | 何昭水;张军;谈季;白玉磊;易双;王伟华;谢胜利 | 申请(专利权)人: | 广东工业大学 |
主分类号: | G06T7/521 | 分类号: | G06T7/521;G06T7/80;G06T5/00;G06T7/00;G06T17/00 |
代理公司: | 广东广信君达律师事务所 44329 | 代理人: | 杨晓松 |
地址: | 510062 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 三维重建 摄像机 双目立体视觉系统 右图像 左图像 稀疏 三维空间坐标 虚拟 结构光 双目 图像特征提取 摄像机采集 表面纹理 规则结构 视差原理 映射矩阵 匹配点 重建 标定 畸变 构建 视差 投射 校正 匹配 图像 节约 | ||
一种基于结构光的虚拟双目三维重建方法,包括以下步骤:构建虚拟双目立体视觉系统,其中,所述双目立体视觉系统包括摄像机;对摄像机进行标定,并获得摄像机的内外参数;根据摄像机的内外参数,求取畸变映射矩阵;向物体投射规则结构光以增加重建物体的表面纹理;利用双目立体视觉系统的摄像机采集重建物体的左图像和右图像,并对图像进行立体校正;对左图像和右图像进行图像特征提取和匹配,并获得左图像和右图像上的对应匹配点关于物体上点P的视差;结合摄像机的内外参数,利用视差原理得到物体稀疏的三维空间坐标;根据物体稀疏的三维空间坐标生成物体稀疏的点云图,完成物体三维重建。本发明有利于提高三维重建的精度和效率,并节约了成本。
技术领域
本发明涉及计算机视觉技术领域,具体涉及了一种基于结构光的虚拟双目三维重建方法。
背景技术
近年来,计算机视觉技术已经成为一门单独的学科在科学研究与实际中生活不断发展,三维重建是计算机视觉最重要的内容以及热点研究方向之一,也是数字图像相关技术最重要的应用之一,三维重建是指对三维物体建立适合计算机表示和处理的数学模型,是在计算机环境下对其进行处理、操作和分析其性质的基础,也是在计算机中建立表达客观世界的虚拟现实的关键技术;具体地,三维重建是指利用计算机通过二维世界中的图像来重建具有真实感的三维空间中的的立体模型,客观世界是我们生活的三维空间世界。三维重建基于立体视觉原理,力求从二维图像中恢复三维空间信息,旨在达到从图像中理解世界的目的,在虚拟现实、计算机动画、三维测量、军事模拟等方面都有重要应用。
目前,三维重建的方法在匹配精度和效率存在很大的不足,尤其对于表面纹理特征较少的物体,特征提取和匹配都很困难,通过被动视觉的方法无法实现三维的物体重建,只能通过主动式视觉实现三维重建,但主动式视觉硬件成本比较高.
有鉴于此,本申请提出一种基于结构光的虚拟双目三维重建方法,就具有十分重要的意义了。
发明内容
本发明目的在于克服现有技术的缺点与不足,提供了一种基于结构光的虚拟双目三维重建方法,其利用主动视觉中的结构光增加物体表面的纹理特征,通过被动视觉实现三维重建,有利于提高三维重建的精度和效率,并节约了成本。
为实现上述目的,本发明采用的技术方案如下:
一种基于结构光的虚拟双目三维重建方法,包括以下步骤:
构建虚拟双目立体视觉系统,其中,所述双目立体视觉系统包括摄像机;
对摄像机进行标定,并获得摄像机的内外参数;
根据摄像机的内外参数,求取畸变映射矩阵;
向物体投射规则结构光以增加重建物体的表面纹理;
利用双目立体视觉系统的摄像机采集重建物体的左图像和右图像,并对图像进行立体校正;
对左图像和右图像进行图像特征提取和匹配,并获得左图像和右图像上的对应匹配点关于物体上点P的视差;
结合摄像机的内外参数,利用视差原理得到物体稀疏的三维空间坐标;
根据物体稀疏的三维空间坐标生成物体稀疏的点云图,完成物体三维重建。
由上可知,本发明采用主动视觉中的结构光和双目立体视觉相结合的方式,结构光弥补了物体表面纹理较少的情况,从而利用主动视觉中的结构光增加物体表面的纹理特征,再通过被动视觉实现三维重建,有利于提高三维重建的精度和效率,并节约了成本。
作为本发明一种改进,所述步骤“构建虚拟双目立体视觉系统,其中,所述双目立体视觉系统包括摄像机”包括以下子步骤:
在图像的上方架设有水平的机械臂;
单个摄像机位于机械臂左端时,设为左摄像机,单个摄像机从机械臂左端移动至机械臂右端时,设为右摄像机;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广东工业大学,未经广东工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810827369.8/2.html,转载请声明来源钻瓜专利网。