[发明专利]一种基于光扫描和智能视觉融合的3D信息采集设备有效
申请号: | 202011105289.5 | 申请日: | 2020-10-15 |
公开(公告)号: | CN112254670B | 公开(公告)日: | 2022-08-12 |
发明(设计)人: | 左忠斌;左达宇 | 申请(专利权)人: | 天目爱视(北京)科技有限公司 |
主分类号: | G01B11/24 | 分类号: | G01B11/24;G01C11/00;G01S17/89;G06V10/46;G06V10/74;G06V20/10;G06T15/04;G06T17/20 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 100102 北京市海淀*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 扫描 智能 视觉 融合 信息 采集 设备 | ||
本发明实施例提供了一种光扫描数据与视觉数据相融合构建3D模型的方法及设备,包括光扫描设备、视觉采集设备和处理设备。首次提出使用激光数据构建的3D模型和视觉数据构建的3D模型进行融合,从而同时克服激光方式无纹理信息,视觉方式不适用于高反光的问题,使得能够全方位准确采集物体3D信息。
技术领域
本发明涉及形貌测量技术领域,特别涉及3D形貌测量技术领域。
背景技术
在进行3D测量时,需要首先采集3D信息。目前常用的方法包括使用机器视觉的方式和结构光、激光测距、激光雷达的方式。
结构光、激光测距、激光雷达的方式均需要主动光源发射到目标物上,在某些情况下会对目标物造成影响,且光源成本较高。并且光源结构比较精密,易于损坏。
而机器视觉的方式是采集物体不同角度的图片,并将这些图片匹配拼接形成3D模型,成本低、易使用。其在采集不同角度图片时,可以待测物不同角度设置多个相机,也可以通过单个或多个相机旋转从不同角度采集图片。但无论这两种方式哪一种,都需要将相机的采集位置围绕目标物设置(简称环绕式),但这种方式需要较大空间为图像采集装置设置采集位置。
而且,除了单一目标物3D构建外,通常还有目标物内部空间3D模型构建需求和周边较大视场范围内的3D模型构建的需求,这是传统环绕式3D采集设备所很难做到的。
在现有技术中,也曾提出使用包括旋转角度、目标物尺寸、物距的经验公式限定相机位置,从而兼顾合成速度和效果。然而在实际应用中发现这在环绕式3D采集中是可行的,可以事先测量目标物尺寸。但在开放式的空间中则难以事先测量目标物,例如需要采集获得街道、交通路口、楼群、隧道、车流等的3D信息(不限于此)。这使得这种方法难以奏效。即使是固定的较小的目标物,例如家具、人身体部分等虽然可以事先测量其尺寸,但这种方法依然受到较大限制:目标物尺寸难以准确确定,特别是某些应用场合目标物需要频繁更换,每次测量带来大量额外工作量,并且需要专业设备才能准确测量不规则目标物。测量的误差导致相机位置设定误差,从而会影响采集合成速度和效果;准确度和速度还需要进一步提高。
现有技术虽然也有对于环绕式采集设备优化的方法,但当3D采集合成设备的相机的采集方向与其旋转轴方向相互背离的情况时,现有技术就没有更佳的优化方法。
此外,激光扫描、结构光等方式精度高,但无纹理信息,且结构复杂、可靠性低、成本高;而视觉方式对于高反光目标物采集效果差,甚至无法合成。因此两者各有不同的应用场合和适用的目标物。也就是说,目前并没有能够适用于所有情况的采集合成方式。上述问题制约了3D数据的采集和应用。
因此,急需一种能够精确、高效、方便采集周边或内部空间3D信息的装置,且适用于更广泛的场景和目标物。
发明内容
鉴于上述问题,提出了本发明提供一种克服上述问题或者至少部分地解决上述问题的一种光扫描数据与视觉数据相融合构建3D模型的方法及设备,。
本发明实施例提供了一种光扫描数据与视觉数据相融合构建3D模型的方法及设备,
光扫描设备主动发射光对目标物进行扫描,构建光扫描3D模型,并获得A区域的点云;
视觉采集设备采集目标物多个图像,并构建视觉3D模型,并获得B区域的点云;
处理设备根据标志点绝对坐标(XT、YT、ZT)和标志点在光扫描模型上的模型坐标(X′i、Y′i、Z′i),利用空间相似变换公式解算出光扫描模型坐标与绝对坐标的7个空间坐标转换参数;利用转换参数将A区域的点云坐标转换到绝对坐标系下;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天目爱视(北京)科技有限公司,未经天目爱视(北京)科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011105289.5/2.html,转载请声明来源钻瓜专利网。