[发明专利]利用激光雷达和视觉传感器融合构建动静态栅格地图的方法在审
申请号: | 201811236936.9 | 申请日: | 2018-10-23 |
公开(公告)号: | CN109443369A | 公开(公告)日: | 2019-03-08 |
发明(设计)人: | 王晓东;张天雷;何贝;刘鹤云;郑思仪 | 申请(专利权)人: | 北京主线科技有限公司 |
主分类号: | G01C21/32 | 分类号: | G01C21/32;G01C11/00;G01S17/93;G01S17/02 |
代理公司: | 天津市三利专利商标代理有限公司 12107 | 代理人: | 杨红 |
地址: | 100084 北京*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 栅格地图 视觉传感器 构建 激光雷达 无人驾驶汽车 多维度 障碍物 车辆行驶过程 传感器信息 安全行驶 车辆行进 车辆周围 道路状态 动态目标 分类标识 静态目标 局部道路 局部区域 区域信息 时间同步 行驶车辆 行驶区域 运动状态 融合 可预测 标定 联合 | ||
1.一种利用激光雷达和视觉传感器融合构建动静态栅格地图的方法,其特征是:联合标定行驶车辆的激光雷达和视觉传感器,通过分类标识静态目标和动态目标,并确保传感器信息时间同步;在车辆行进过程中,每一周期都执行以下步骤构建多维度动静态栅格地图,具体步骤如下:
步骤一、采集激光雷达点云数据,利用点云数据高程信息进行地面区域分割,对点云数据聚类得到静态目标,所述静态目标即静态障碍物无需区分其类型,只需要得到他们的位置和形状;建立初始栅格图;
步骤二、采集视觉传感器图像数据,使用图像检测算法得到动态目标,检测出图像中存在的行人、机动车和非机动车动态目标的位置及尺寸信息,并对每一个动态目标标记其类型;
步骤三、将激光雷达和视觉传感器得到的数据进行融合;将动态目标投影到激光雷达点云数据,去除动态目标点云重新聚类,重新聚类得到更新后的静态目标;
步骤四、在栅格图上标记目标类型以及动态目标的多位属性信息,生成多维度动静态栅格地图。
2.根据权利要求1所述的利用激光雷达和视觉传感器融合构建动静态栅格地图的方法,其特征是:所述激光雷达和视觉传感器对得到的数据进行融合具体方法:
1)以激光雷达安装位置作为雷达坐标系原点OL,车辆前进方向为ZL轴,YL轴指向车体上方,XL-YL-ZL轴满足右手螺旋定则;以视觉传感器光心作为相机坐标系原点OC,光轴方向为ZC轴,垂直光轴向下的方向为YC轴,XC-YC-ZC轴满足右手螺旋定则;图像坐标系(vx,vy),坐标原点为图像左上角;使用标定板对激光雷达和视觉传感器进行标定,可以得到利用激光雷达坐标系和视觉传感器相机坐标系之间的变换关系:
其中R为旋转矩阵,t为平移向量,根据视觉传感器成像原理,相机坐标系与图像坐标系之间的变换关系:
其中,fx、fy为焦距,xc、yc为光心图像坐标,综合上述公式,激光雷达到图像坐标系的变换关系:
利用上述公式的逆变换,将检测到的图像中的动态目标投影到激光雷达点云数据上,得到动态目标的点云集合,从初始的静态目标点云集合中去除动态目标点云集合,更新点云数据,生成聚类结果;
2)对于静态目标,在三维栅格图点上赋予静态目标类型;
3)对于动态目标点云集合,计算其凸包,估计其速度和运动方向,在凸包对应的三维栅格点上,赋予动态目标编号、类型、运动速度和方向多维属性。
3.根据权利要求2所述的利用激光雷达和视觉传感器融合构建动静态栅格地图的方法,其特征是:所述动态目标指交通行为主体,主要是机动车、非机动车和行人;楼房和树木静止物体为静态目标;所述目标编号是对所有动态目标进行编号,编号的作用是为目标的运动估计提供信息,即对同一个物体的运动轨迹、运动速度和方向进行估计,同时对同一个物体进行追踪;所述目标类型即行人、机动车和非机动车的动态目标分类,类型信息为无人驾驶车的决策提供了基础;确定动态目标的速度以及运动方向。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京主线科技有限公司,未经北京主线科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811236936.9/1.html,转载请声明来源钻瓜专利网。