[发明专利]一种深度相机与单线激光雷达融合的移动机器人避障方法有效
申请号: | 202110401044.5 | 申请日: | 2021-04-14 |
公开(公告)号: | CN113110451B | 公开(公告)日: | 2023-03-14 |
发明(设计)人: | 朱威;巫浩奇;洪力栋;韩慧;陈伟锋;何德峰 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G05D1/02 | 分类号: | G05D1/02 |
代理公司: | 杭州赛科专利代理事务所(普通合伙) 33230 | 代理人: | 吴琰 |
地址: | 310014 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 深度 相机 单线 激光雷达 融合 移动 机器人 方法 | ||
1.一种深度相机与单线激光雷达融合的移动机器人避障方法,其特征在于:所述方法包括以下步骤:
步骤1:对移动机器人上的深度相机与单线激光雷达进行联合标定;
步骤2:获取一帧深度图像和一帧单线激光雷达数据,所获得的深度图像和单线激光雷达数据为同一帧;
步骤3:对深度图像进行预处理,包括:
步骤3.1:将步骤2获得的深度图像使用双边滤波算法进行处理;
步骤3.2:设定经过步骤3.1滤波处理后的深度图像的有效像素区域为水平像素坐标在[cx-width,cx+width]、竖直像素坐标在[cy-height,cy+height]的矩形区域,其中cx、cy分别为深度图像中心坐标,width为有效像素区域到中心坐标的最大水平像素距离,height为有效像素区域到中心坐标的最大竖直像素距离;
步骤3.3:基于有效像素区域和预设的像素深度值范围,对经过步骤3.1滤波处理后的深度图像进行裁切,输出裁剪后的深度图像;
步骤4:判断预处理后的深度图像是否需要与激光雷达数据融合,包括以下步骤:
步骤4.1:将预处理后的深度图像通过深度相机内参矩阵和外参矩阵转换成点云数据,将点云数据通过步骤1的联合标定的方式转换至移动机器人本体坐标系中,得到坐标系转换后的点云数据P;
步骤4.2:在三维空间下,对点云数据P使用半径滤波器进行处理,设置点云邻域半径r,对于P中的每个点云点,统计以其为中心、半径为r的球体内的空间相邻点云点的数量Num1;若Num1小于等于邻近点云点数量阈值THnum1,则将当前点云点消除,否则保留该点云点,得到滤除异常空间噪声点云点的点云数据M;
步骤4.3:统计点云数据M中的点云点个数Num2,若Num2大于等于总点云数阈值THnum2,说明深度相机检测到障碍物,则进行步骤5,否则不进行数据融合,直接使用单线激光雷达数据生成栅格地图并进行步骤6;
步骤5:使用贝叶斯估计法进行数据融合;
步骤6:使用局部避障算法进行避障。
2.根据权利要求1所述的一种深度相机与单线激光雷达融合的移动机器人避障方法,其特征在于:所述步骤1中,以棋盘格标定法对深度相机进行标定,得到深度相机的内参矩阵和外参矩阵,按式(1)和(2)将深度相机坐标系转换到移动机器人本体坐标系:
其中,u、v分别为深度图像中各个像素点的行列号,cx、cy分别为深度图像中心坐标,d表示深度图像中各个像素点的深度距离,fx、fy分别为深度相机水平、垂直方向的焦距,R为旋转矩阵,T为转换向量;xc、yc和zc分别为深度相机的三轴坐标;
移动机器人本体坐标系与单线激光雷达的坐标系一致。
3.根据权利要求1所述的一种深度相机与单线激光雷达融合的移动机器人避障方法,其特征在于:所述步骤3.3中,预设的像素深度值范围为[10,120]。
4.根据权利要求1所述的一种深度相机与单线激光雷达融合的移动机器人避障方法,其特征在于:r∈[0.5,5],单位厘米;THnum1∈[2,6];THnum2∈[2,6]。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110401044.5/1.html,转载请声明来源钻瓜专利网。