[发明专利]一种基于RGB-D相机与IMU信息融合的移动机器人定位方法有效
申请号: | 201911367625.0 | 申请日: | 2019-12-26 |
公开(公告)号: | CN111156998B | 公开(公告)日: | 2022-04-15 |
发明(设计)人: | 戴诗陆;欧建永;杨辰光;王柠 | 申请(专利权)人: | 华南理工大学;佛山纽欣肯智能科技有限公司 |
主分类号: | G01C21/18 | 分类号: | G01C21/18;G01C21/16;G01C11/00;G01C9/00 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 李斌 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 rgb 相机 imu 信息 融合 移动 机器人 定位 方法 | ||
1.一种基于RGB-D相机与IMU信息融合的移动机器人定位方法,其特征在于,包括下述步骤:
(1)建立针孔相机模型,所述针孔相机模型用于明确实际采集的二维图像点与对应的空间中三维点的相机坐标的数学关系;
(2)建立IMU测量模型,确定IMU测量数据与状态参数速度、位姿、偏差的关系;
(3)基于针孔相机模型计算二维相机坐标,建立二维相机坐标与三维相机坐标的数学关系,基于结构光相机深度计算与基于特征点匹配的位姿变换计算,利用相机求解空间点深度信息的原理,从而恢复出空间点的三维信息,对于相机不同时刻的图像帧,假设在已知图像帧间多组匹配的三维空间点的情况下通过匹配点的信息求解两帧图像间的坐标变换K,t,从而迭代求解机器人的定位信息;
步骤(3)中,结构光相机深度计算与基于特征点匹配相机坐标变换的计算方法具体为:
所述对于结构光深度相机得到深度信息的原理公式为:
其中f为相机焦距,uL,uR为图像点在左右相机平面上的横轴的成像坐标轴,b为左右相机光心的距离即基线大小,z为待求点深度大小,即到相机平面的距离,结构相机中深度的计算实际由相机自身计算并输出结果,故深度z为已知信息;
所述基于特征点匹配的位姿变换计算具体为:
其中P表示空间点的世界坐标,p1,p2表示空间点投影到两个平面上的像素坐标,即匹配的特征点,z1,z2表示空间点到两个平面上的深度,K表示相机内参矩阵,R,t表示图像帧之间的旋转变换和平移变换,即通过多组匹配点求解图像帧间的旋转R和平移t;
(4)IMU预积分姿态解算以及IMU坐标系与相机坐标系的转换,IMU通过本身的测量计算出IMU中心在世界坐标的位姿,通过已知的IMU与相机的坐标变换,求解出初步的相机位姿,并以此来预测相机位姿,加速特征点匹配;
(5)通过特征点匹配求解出机器人位姿,由IMU测量解算出的IMU位姿加速特征点匹配,在匹配的基础上构建重投影误差进一步优化机器人位姿,最终获得精准的定位姿态;
步骤(5)中,相机重投影误差ei的最终定义为:
其中为当前帧像素坐标的齐次坐标表示,[Xi,Yi,Zi,1]T为三维空间点世界坐标的齐次坐标表示方法,K为相机内参,为最终需要优化的当前帧的世界坐标变化,通过对残差构造最小二乘并对进行优化,其代价函数ε*为:
最终使用Levenberg-Marquadt算法对位姿状态进行优化。
2.根据权利要求1所述基于RGB-D相机与IMU信息融合的移动机器人定位方法,其特征在于,步骤(1)中,使用MyntEye-D相机,根据其视角参数与畸变特性,将其建模成针孔模型,以下简称针孔相机模型,针孔相机模型表述为,在相机的视野范围内,三维空间中的一点P,其反射光线必通过相机光心,并在二维相机平面上成像为点P′,且P与P′符合如下数学转换关系:
其中P′表示像素坐标,是像素坐标的齐次坐标表示形式;P是P′对应的三维空间点,是在当前相机坐标系下的相机坐标,K是相机内参矩阵,K中的fx,fy,cx,cy是与相机焦距和相机中心位置相关的参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学;佛山纽欣肯智能科技有限公司,未经华南理工大学;佛山纽欣肯智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911367625.0/1.html,转载请声明来源钻瓜专利网。