[发明专利]一种移动物体之间的三维匹配设备及方法有效
申请号: | 202011105318.8 | 申请日: | 2020-10-15 |
公开(公告)号: | CN112304250B | 公开(公告)日: | 2022-09-16 |
发明(设计)人: | 左忠斌;左达宇 | 申请(专利权)人: | 天目爱视(北京)科技有限公司 |
主分类号: | G01B11/25 | 分类号: | G01B11/25 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 100102 北京市海淀*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 移动 物体 之间 三维 匹配 设备 方法 | ||
本发明实施例提供了一种实现运动物体之间3D匹配的装置及方法,包括目标物3D信息采集装置和第一处理器;目标物3D信息采集装置用于在待匹配物体运动时,不断对待匹配物体进行扫描,在多个时刻分别获得多张能够合成三维模型的图像;第一处理器,用于将至少两个待匹配物体在同一时刻的三维模型进行匹配。首次提出通过简单结构的视觉三维采集装置,实现物体的三维模型构建,从而能够实现物体间的相互匹配,且采集速度快、精度高。
技术领域
本发明涉及形貌测量技术领域,特别涉及3D形貌测量技术领域。
背景技术
目前在很多场景都需要进行物体与物体的匹配,例如利用直升机海上救援,需要直升机与水面小船之间相互对准;或两个货车需要接力搬运货物等。即对于两个同时在进行不同运动的物体而言,它们相互之间是运动的,这样如果要进行对准、对接、插入等动作时,均需要两者的清晰图像才能进一步操作。在现有技术中,均是采用二维图像进行的,这带来较大误差。当然现有技术中也有使用二维图像和测距仪的结合,但会造成设备复杂、成本高、运算困难的问题。因此目前急需一种通过简单结构进行三维采集,从而实现物体间快速、准确匹配的装置及方法。
另外,在进行3D信息采集时,目前常用的方法包括使用机器视觉的方式和结构光、激光测距、激光雷达的方式。结构光、激光测距、激光雷达的方式均需要主动光源发射到目标物上,在某些情况下会对目标物造成影响,且光源成本较高。并且光源结构比较精密,易于损坏。而机器视觉的方式是采集物体不同角度的图片,并将这些图片匹配拼接形成3D模型,成本低、易使用。其在采集不同角度图片时,可以待测物不同角度设置多个相机,也可以通过单个或多个相机旋转从不同角度采集图片。但无论这两种方式哪一种,都需要将相机的采集位置围绕目标物设置(简称环绕式),但这种方式需要较大空间为图像采集装置设置采集位置。适用场景受到极大限制。
在现有技术中,也曾提出使用包括旋转角度、目标物尺寸、物距的经验公式限定相机位置,从而兼顾合成速度和效果。然而在实际应用中发现这在环绕式3D采集中是可行的,可以事先测量目标物尺寸。但在开放式的空间中则难以事先测量目标物,例如需要采集获得街道、交通路口、楼群、隧道、车流等的3D信息(不限于此)。这使得这种方法难以奏效。即使是固定的较小的目标物,例如家具、人身体部分等虽然可以事先测量其尺寸,但这种方法依然受到较大限制:目标物尺寸难以准确确定,特别是某些应用场合目标物需要频繁更换,每次测量带来大量额外工作量,并且需要专业设备才能准确测量不规则目标物。测量的误差导致相机位置设定误差,从而会影响采集合成速度和效果;准确度和速度还需要进一步提高。
现有技术虽然也有对于环绕式采集设备优化的方法,但当3D采集合成设备的相机的采集方向与其旋转轴方向相互背离的情况时,现有技术就没有更佳的优化方法。
因此,还急需一种能够精确、高效、适用场景广泛的采集空间3D信息,并将其与物体3D信息进行匹配优化,从而指导物体与空间的匹配动作的技术。
发明内容
鉴于上述问题,提出了本发明提供一种克服上述问题或者至少部分地解决上述问题的一种实现运动物体之间3D匹配的装置及方法。
本发明实施例提供了一种实现运动物体之间3D匹配的装置及方法,包括目标物3D信息采集装置和第一处理器;
目标物3D信息采集装置用于在待匹配物体运动时,不断对待匹配物体进行扫描,在多个时刻分别获得多张能够合成三维模型的图像;
第一处理器,用于将至少两个待匹配物体在同一时刻的三维模型进行匹配。
在可选的实施例中,第一处理器还用于合成待匹配物体三维模型。
在可选的实施例中,还包括第二处理器,位于目标物3D信息采集装置,用于合成与其相对的待匹配物体的三维模型;
在可选的实施例中,目标物3D信息采集装置在任意时刻采集待匹配物体的上述图像时,均将图像打上时间戳。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天目爱视(北京)科技有限公司,未经天目爱视(北京)科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011105318.8/2.html,转载请声明来源钻瓜专利网。