[发明专利]一种激光雷达和双目视觉相互融合的定位方法及终端有效
申请号: | 202010329734.X | 申请日: | 2020-04-24 |
公开(公告)号: | CN111524194B | 公开(公告)日: | 2023-07-21 |
发明(设计)人: | 项崴 | 申请(专利权)人: | 江苏盛海智能科技有限公司 |
主分类号: | G06T7/80 | 分类号: | G06T7/80;G06T7/55 |
代理公司: | 福州市博深专利事务所(普通合伙) 35214 | 代理人: | 林振杰 |
地址: | 215600 江苏省*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 激光雷达 双目 视觉 相互 融合 定位 方法 终端 | ||
本发明提供了一种激光雷达和双目视觉相互融合的定位方法及终端,将激光雷达和摄像头的外参数进行标定,使激光雷达测量到的第一数据和摄像头测量到的第二数据实现点对点对应;利用所述第一数据辅助估计所述第二数据的深度误差;利用所述第二数据去除所述第一数据中的畸变,得到第一点云;利用所述第一点云、第二数据和所述第二数据的深度误差,计算出激光雷达和摄像头所在载体的位姿信息;联合优化结果,确定激光雷达的位姿,利用坐标转换关系得到激光雷达和摄像头所在载体的位姿,在定位过程中高度融合激光雷达的测量数据和摄像头的测量数据,而不仅仅是做简单的点对点匹配,提高了定位精度和定位方法的鲁棒性。
技术领域
本发明涉及图像处理领域,尤其涉及一种激光雷达和双目视觉相互融合的定位方法及终端。
背景技术
目前,在无人驾驶领域主要应用激光雷达融合视觉进行图像处理实现局部定位,常用的激光雷达与视觉融合定位技术主要分为激光辅助视觉和视觉辅助激光两类,其中,常见视觉辅助激光定位主要从三个方面进行:通过数据层面上融合由视觉估计出具有深度的稠密点云配合激光雷达的稀疏点云输出点云数据;或是视觉辅助激光雷达做回环检测;或是通过滤波方式(卡尔曼或者粒子滤波)进行状态估计。
但是现有的视觉辅助激光的定位方案中存在如下主要缺点:并未考虑到用来匹配的帧内的激光点云,因为激光雷达位置发生移动,而存在畸变;视觉和激光雷达只是数据上的融合,并没有实现紧密组合,精度往往不高;采用卡尔曼滤波的方式进行状态估计,如果估计不准,误差会快速累计,无法修复,甚至估计值发散,出现不稳定,若选用粒子滤波估计状态,则会存在粒子耗散现象。
发明内容
本发明所要解决的技术问题是:提供一种激光雷达和双目视觉相互融合的定位方法及终端,实现视觉和激光的相互辅助,提高测量精度和鲁棒性。
为了解决上述技术问题,本发明采用的一种技术方案为:
一种激光雷达和双目视觉相互融合的定位方法,包括步骤:
S1、将激光雷达和摄像头的外参数进行标定,使激光雷达测量到的第一数据和摄像头测量到的第二数据实现点对点对应;
S2、利用所述第一数据辅助估计所述第二数据的深度误差;
S3、利用所述第二数据去除所述第一数据中的畸变,得到第一点云;
S4、利用所述第一点云、第二数据和所述第二数据的深度误差,计算出激光雷达和摄像头所在载体的位姿信息。
为了解决上述技术问题,本发明采用的另一种技术方案为:
一种激光雷达和双目视觉相互融合的定位终端,包括存储器、处理器及存储在存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
S1、将激光雷达和摄像头的外参数进行标定,使激光雷达测量到的第一数据和摄像头测量到的第二数据实现点对点对应;
S2、利用所述第一数据辅助估计所述第二数据的深度误差;
S3、利用所述第二数据去除所述第一数据中的畸变,得到第一点云;
S4、利用所述第一点云、第二数据和所述第二数据的深度误差,计算出激光雷达和摄像头所在载体的位姿信息。
本发明的有益效果在于:利用激光雷达测量和摄像头测量所得数据的各自优势,互相校准数据,结合了传统视觉辅助激光和激光辅助视觉两种技术各自的优点,通过激光数据融合提高双目视觉深度信息的估计精度,另外,通过摄像头能够高频采集数据的特点,去除激光雷达的数据畸变,最后进行整体优化计算,而不选用现有技术中的滤波进行优化,可以消除累计误差,减轻激光雷达或视觉匹配错误造成的误差问题,提高了定位精度和定位方法的鲁棒性。
附图说明
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江苏盛海智能科技有限公司,未经江苏盛海智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010329734.X/2.html,转载请声明来源钻瓜专利网。