[发明专利]基于深度相机的机器人自主定位方法及装置在审
申请号: | 201910056644.5 | 申请日: | 2019-01-22 |
公开(公告)号: | CN109579852A | 公开(公告)日: | 2019-04-05 |
发明(设计)人: | 任杰;周玄昊;时岭;郑振浩 | 申请(专利权)人: | 杭州蓝芯科技有限公司 |
主分类号: | G01C21/20 | 分类号: | G01C21/20 |
代理公司: | 北京鼎承知识产权代理有限公司 11551 | 代理人: | 王青伟;李伟波 |
地址: | 311121 浙江省杭州市余杭*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 灰度图像 深度信息 深度相机 视觉定位 提取特征 自主定位 机器人 转化 环境光变化 移动机器人 彩色图像 单位像素 深度图像 线性转化 最大像素 普适性 特征点 映射 位姿 像素 匹配 三维 场景 敏感 重建 | ||
1.一种基于深度相机的机器人自主定位装置,其特征在于,包括:图像采集模块、图像处理模块、追踪定位模块和位姿调整模块;
所述图像采集模块从深度相机中实时采集所述深度图像,所述深度图像是具有深度信息的图像;
所述图像处理模块负责将具有深度信息的深度图像转化为包含深度信息的灰度图像,并在所述经过转化的包含深度信息的灰度图像上提取特征点;
所述追踪定位模块根据机器人上一时刻运动状态及位姿对当前时刻机器人位姿做粗估计,然后将已经重建得到的地图点与当前帧中提取的特征点进行配对比较,从而计算出当前帧的准确位姿,即实现精定位;
所述位姿调整模块根据精定位计算结果实时调整机器人位姿,实现自主定位。
2.根据权利要求1所述的基于深度相机的机器人自主定位装置,其特征在于,
所述图像采集模块从深度相机中以较高的频率获取所述深度图像。
3.根据权利要求1所述的基于深度相机的机器人自主定位装置,其特征在于,
所述图像处理模块在将具有深度信息的深度图像转化为包含深度信息的灰度图像之前,对所述深度图像进行滤波处理以去除噪声。
4.根据权利要求3所述的基于深度相机的机器人自主定位装置,其特征在于,
所述提取的特征点是角点+其他描述信息;
所述角点具有物理层面的角点特性,能够准确地描述环境信息并且是稳定的;
所述其他描述信息是该角点的描述子;
提取后的角点,再经过对应的深度信息投影,转变为3D地图点;此时地图点的3D坐标是相对于当前相机的坐标,使用公式
(xw,yw,zw)T=P(xc,yc,zc)T
转化为世界坐标;
其中,P为当前相机的位姿矩阵,(xw,yw,zw)为3D地图点的世界坐标,(xc,yc,zc)为3D地图点的当前相机坐标,T表示转置;
对于获取的特征点,其像素坐标在深度图像下的值就是该特征点的深度值,使用具有深度值的所述特征点,实现灰度图像和深度图像的对齐。
5.根据权利要求1所述的基于深度相机的机器人自主定位装置,其特征在于,
所述机器人为移动机器人。
6.一种基于深度相机的机器人自主定位方法,其特征在于,包括如下步骤:
步骤S1:收集传感器信息,所述传感器为深度相机,从所述深度相机实时采集深度图像,所述深度图像是具有深度信息的图像;
步骤S2:获取上一时刻机器人位姿以及在之前已经重建完成的地图点坐标,使用上一时刻机器人速度以及位姿,根据机器人运动模型,对当前时刻机器人位姿做粗估计;
步骤S3:对获取的所述具有深度信息的深度图像进行处理,将具有深度信息的深度图像转化为包含深度信息的灰度图像;
步骤S4:,并在所述经过转化的包含深度信息的灰度图像上提取特征点;
步骤S5,将已经重建得到的地图点与当前帧中提取的特征点进行配对比较;所述配对比较为将提取后的所述特征点,根据其在所述具有深度信息的深度图像上相同像素坐标对应的深度值,投影成三维点云,并将该副图像的三维点云与已经重建得到的三维稀疏点云地图进行匹配,匹配后获取所述机器人的精确位姿;
步骤S6:保存当前所述机器人的精确位姿并根据所述当前精确位姿与上一时刻的所述机器人位姿计算所述机器人速度的估计值,以用于下一时刻的定位。
7.根据权利要求6所述的基于深度相机的机器人自主定位方法,其特征在于,
所述步骤S1中,以较高的频率获取所述深度图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州蓝芯科技有限公司,未经杭州蓝芯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910056644.5/1.html,转载请声明来源钻瓜专利网。