[发明专利]用于配准数据的方法和系统有效
申请号: | 201680072960.6 | 申请日: | 2016-12-05 |
公开(公告)号: | CN108369741B | 公开(公告)日: | 2019-08-30 |
发明(设计)人: | E·坎斯佐格鲁;田口裕一;S·拉姆阿里加姆 | 申请(专利权)人: | 三菱电机株式会社 |
主分类号: | G06T7/33 | 分类号: | G06T7/33 |
代理公司: | 北京三友知识产权代理有限公司 11127 | 代理人: | 吕俊刚;杨薇 |
地址: | 日本*** | 国省代码: | 日本;JP |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 图元 配准 传感器 场景获取 地图构建 数据提取 描述符 三维 视点 关联 | ||
一种配准数据的方法和系统,由处于不同视点的传感器从场景获取数据,并且从所述数据提取三维(3D)点和3D线以及与3D点和3D线关联的描述符。选择在传感器的第一坐标系中表示的第一组图元,其中,第一组图元包括至少三个3D点。选择在第二坐标系中表示的第二组图元,其中,第二组图元包括3D点和3D线的任意组合从而获得至少三个图元。然后,使用第一组图元和第二组图元,将3D点彼此配准并将3D线与3D点配准从而获得配准后的图元,其中,配准后的图元在同时定位与地图构建(SLAM)系统中使用。
技术领域
本发明涉及配准二维(2D)和三维(3D)数据,更具体地涉及针对传感器姿态估计和计算机视觉应用(诸如3D场景重建、机器人学以及增强现实)而配准从RGB-D传感器获得的2D和3D数据。
背景技术
同时定位与地图构建(SLAM)在计算机视觉、机器人学以及增强现实中的许多应用中使用。SLAM系统的重要部分是传感器定位。其涉及在传感器坐标系中的图元与SLAM地图坐标系的配准。使用单目传感器的SLAM是已知的。随着低成本3D传感器的普及,许多SLAM系统使用红、绿、蓝以及深度(RGB-D)传感器,诸如微软传感器,来利用使用颜色数据和深度数据这两者。
虽然RGB-D传感器可以提高配准准确性,但这种传感器通常由于硬件限制和噪声而仅在有限范围(例如对于为0.5m至4m)内提供准确深度。大多数RGB-D SLAM系统仅使用具有有效深度的像素,而忽略与离传感器太近或太远的场景点关联的像素。这是对传感器提供的信息的低效使用,并且会引入配准不准确性,特别是对于具有大深度变化的场景。
大多数传统SLAM系统使用单个类型的图元作为测量结果,例如2D点或3D点。例如,基于特征的单目SLAM系统提取2D点特征,使用2D对2D点对应性通过三角测量来初始化3D点陆标,然后使用2D点测量结果与3D点地标之间的2D对3D对应性来估计连续图像中的传感器姿态,参见Davison等人,“MonoSLAM:Real-time single camera SLAM,”IEEETrans.Pattern Anal.Mach.Intell.,第29卷,第6期,第1052-1067页,2007年6月以及Klein和Murray,“Parallel tracking and mapping for small AR workspaces”Proc.IEEEInt’l Symp.Mixed and Augmented Reality(ISMAR),第1-10页,2007年11月。
基于特征的RGB-D SLAM系统提取3D点特征并使用3D对3D点对应性来估计传感器姿态。在一些SLAM系统中,平面特征也可以被用作测量结果。近来的密集SLAM系统,单目和RGB-D这两者,不依赖特征提取,相反利用图像中的所有2D或3D点并使用于直接配准的测光误差或迭代最近点(ICP)成本最小化。然而,这些系统仍然仅使用单个类型的图元,例如,2D点或3D点。
一些SLAM系统使用3D测量结果的混合。一种系统使用平面对平面和线对平面对应性这两者,参见Trevor等人,“Planar surface SLAM with 3D and 2D sensors”Proc.IEEEInt’l Conf.Robotics and Automation(ICRA),第3041-3048页,2012年5月。另一种系统使用点对点和平面对平面对应性这两者,参见Taguchi等人,“Point-plane SLAM for hand-held 3D sensors”Proc.IEEE Int’l Conf.Robotics and Automation(ICRA),第5182-5189页,2013年5月。然而,它们的系统中使用的所有测量结果是3D图元。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于三菱电机株式会社,未经三菱电机株式会社许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201680072960.6/2.html,转载请声明来源钻瓜专利网。