[发明专利]一种基于GMS特征匹配及滑动窗口位姿图优化的视觉里程计有效
申请号: | 201910195323.3 | 申请日: | 2019-03-14 |
公开(公告)号: | CN109974743B | 公开(公告)日: | 2021-01-01 |
发明(设计)人: | 陈佩;谢晓明 | 申请(专利权)人: | 中山大学 |
主分类号: | G01C22/00 | 分类号: | G01C22/00;G06T7/246;G06T7/73 |
代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 陈伟斌 |
地址: | 510275 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 gms 特征 匹配 滑动 窗口 位姿图 优化 视觉 里程计 | ||
本发明属于计算机视觉领域,更具体地,涉及一种基于GMS特征匹配及滑动窗口位姿图优化的RGB‑D视觉里程计。本发明采用GMS(网格运动统计)算法代替现有技术方案中普遍使用的距离阈值+RANSAC(随机样本一致性)算法进行误匹配剔除,在图像间相对运动较大且亮度变化较大时仍然能够筛选出足够数量的正确匹配点对,提高了系统的鲁棒性;本发明采用滑动窗口位姿图优化技术减小位姿估计的累计误差,相较于现有技术方案中通过维护局部地图或设计更复杂的目标函数,具有更高的实时性,同时又可以保证视觉里程计的精确度。
技术领域
本发明属于计算机视觉领域,更具体地,涉及一种基于GMS特征匹配及滑动窗口位姿图优化的RGB-D视觉里程计。
背景技术
视觉里程计是指通过机器视觉技术,分析相关图像序列来实时估计机器人位姿,能克服传统里程计的不足,更加精确地进行定位,并且可以运行在GPS(全球定位系统)无法覆盖的环境下,例如室内环境,星际探索等。视觉里程计在移动机器人定位和导航领域得到了广泛关注和应用。
目前,视觉里程计的两种主流方法分别是特征点法和直接法。特征点法主要通过三个步骤,即特征提取,特征匹配,最小化重投影误差(Reprojection Error), 来估计图像帧之间的相对位姿。特征点法作为最早兴起的视觉里程计解决方案,一直被认为是视觉里程计的主流方法,这种方法运行稳定,对动态物体不敏感,是目前比较成熟的解决方案,但该方法也存在一定的问题。特征点法的特征点提取和匹配步骤存在比较耗时以及会有错误匹配的问题。当图像存在运动模糊,光照条件差,纹理大量重复或缺少纹理时,特征点法的准确性会受到较大的影响。直接法的原理基于一个称为亮度不变性的假设,该假设认为,两帧图像上对应的像素点应具有相同的亮度度值。基于这个假设,通过相机模型直接使用像素点的亮度值构造光度误差,并通过最小化光度误差(Photometric Error)来估计帧间位姿。根据使用的像素点数量,直接法又可以分为稠密和半稠密两种,其中稠密的直接法会使用图像上的所有像素点来计算光度误差,因此计算量巨大。半稠密的直接法只使用有一定梯度信息的像素点来计算光度误差,这样的处理在保持相对位姿估计的准确性的同时也让直接法具备一定的实时性。直接法在相机相对运动较小时能够得到鲁棒且准确的位姿估计结果,同时,对于图像信息的充分利用,使得其在图像出现运动模糊,重复纹理以及纹理缺失的情况仍能保持较好的准确性。直接法的主要问题在于,亮度不变假设是一种较为强迫性的假设,即该假设在亮度差异较小的情况下能够认为是成立的,但在亮度差异较大的情况,该假设很有可能不成立,这种情况下直接法的视觉里程计的精确度会有较大程度的下降。
在使用特征点法或是直接法实现视觉里程计时,一般情况下都不会只单纯地对图像序列帧做两两之间的相对位姿估计,通常会通过一些技术手段的方式来减少累计误差。这些技术手段主要包括维护局部地图以及设计更加复杂光度误差计算方法。维护局部地图需要对地图进行插入新的地图点和删除旧地图点的操作,这两种操作对会增加计算量,降低视觉里程计的实时性。通过设计更加复杂的光度误差计算方法能够有效减少累计误差,但同时,在最小化光度误差时也需要更多的计算量,降低系统的实时性。
发明内容
本发明为克服上述现有技术所述的至少一种缺陷,提供一种基于GMS特征匹配及滑动窗口位姿图优化的RGB-D视觉里程计,采用GMS(网格运动统计) 算法进行误匹配剔除,在图像间相对运动较大且亮度变化较大时仍然能够筛选出足够数量的正确匹配点对,提高了系统的鲁棒性;采用滑动窗口位姿图优化技术减小位姿估计的累计误差,具有更高的实时性。
为解决上述技术问题,本发明采用的技术方案是:一种基于GMS特征匹配及滑动窗口位姿图优化的RGB-D视觉里程计,包括以下步骤:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910195323.3/2.html,转载请声明来源钻瓜专利网。