[发明专利]基于堆栈式组合自编码器的机器人视觉SLAM闭环检测方法在审
申请号: | 202010620731.1 | 申请日: | 2020-07-01 |
公开(公告)号: | CN111753789A | 公开(公告)日: | 2020-10-09 |
发明(设计)人: | 罗元;肖雨婷;张毅 | 申请(专利权)人: | 重庆邮电大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 重庆市恒信知识产权代理有限公司 50102 | 代理人: | 陈栋梁 |
地址: | 400065 重*** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 堆栈 组合 编码器 机器人 视觉 slam 闭环 检测 方法 | ||
本发明请求保护一种基于堆栈式组合自编码器的机器人视觉SLAM闭环检测方法,属于移动机器人视觉SLAM领域。该方法包括步骤:S1,对视觉SLAM场景图像进行预处理,输入堆栈式自编码器模型;S2,逐层训练网络模型,采用随机梯度下降算法进行网络参数的迭代,不断调整模型参数,使得重构误差最小;S3,利用训练完成的堆栈式组合自编码器提取视觉SLAM场景图像的特征向量;S4,计算视觉SLAM场景的第k个关键帧(当前帧)的特征向量VK与历史关键帧特征向量V1,V2,...,VN的相似度;S5,将相似度得分与设定的阈值进行比较,如果大于设定的阈值,则判断为闭环。本发明能够有效提高视觉SLAM闭环检测的准确性和鲁棒性。
技术领域
本发明属于移动机器人视觉SLAM领域,特别是一种基于堆栈式组合自编码器的视觉SLAM闭环检测方法。
背景技术
同时定位与地图构建技术(Simultaneous Localization and Mapping,SLAM)是指机器人在未知环境的移动过程中进行实时定位并构建量式的环境地图。视觉SLAM以相机为传感器,能够实时构建三维环境地图。一个完整的视觉SLAM系统主要包括前端视觉里程计、后端非线性优化、闭环检测和建图四个模块。闭环检测是视觉SLAM中的一个关键模块,在消除累积误差方面起着非常重要的作用。闭环检测是指在给定当前观测信息和地图信息时,判断机器人是否回到了地图中已经存在的某一位置。大部分闭环检测算法是基于Image-to-Image匹配,即将移动机器人当前所处位置的场景图像与先前访问过的场景图像进行相似度比较,当相似度大于设定的阈值时,即确定为闭环。最常用的图像描述方法是视觉词袋模型(Bag of Visual Word,BoVW),由于BoVW是基于人工设计,它对环境变化非常敏感,不能够提供鲁棒性较好的图像特征描述,在实际的场景中往往会检测出假阳性的闭环,导致错误的结果,使闭环检测的准确率大大降低。
堆栈式自编码器,它是由多个自编码器组成的神经网络,前一个自编码器的输出作为后面一个自编码器的输入。堆栈式自编码器的效果要优于单个自编码器,可以提取图像的深层特征。传统的堆栈式自编码器通常是采用同一种自编码器多层堆叠而成,这种网络很容易丢失特征或产生维数爆炸问题。为了更好地提取图像特征,进一步提高网络模型的鲁棒性以及泛化能力,本发明设计了一种堆栈式组合自编码器,对多种自编码器进行堆叠。降噪自编码器通过人为地对输入信号加入噪声,来提高网络的鲁棒性。隐藏层提取的特征基本上包含了输入图像的所有特征,能够从部分被遮挡或损坏的图像中重构原图像。卷积自编码器通过共享权重来减少参数的个数,简化了训练过程,并且能够很好的保留图像的空间信息。稀疏自编码器能够提取输入图像的稀疏特征,在保证重建精度的前提下实现降维。堆栈式组合自编码器能够很好地结合各类自编码器的优点,提取鲁棒性较好的特征用于闭环检测,最终提高视觉SLAM闭环检测的准确性和鲁棒性。
发明内容
本发明旨在解决以上现有技术的问题。提出了一种基于堆栈式组合自编码器的视觉SLAM闭环检测方法。本发明的技术方案如下:
一种基于堆栈式组合自编码器的视觉SLAM闭环检测方法,其包括以下步骤:
S1,获取机器人视觉SLAM场景图像,并对机器人视觉SLAM场景图像进行包括图像尺寸缩小和图像灰度化在内的预处理,输入堆栈式组合自编码器模型;所述堆栈式组合自编码器由降噪自编码器、卷积自编码器和稀疏自编码器多层堆叠而成,降噪自编码器通过人为地对输入信号加入噪声,来提高网络的鲁棒性;卷积自编码器通过共享权重来减少参数的个数,简化了训练过程,并且能够很好的保留图像的空间信息;稀疏自编码器能够提取输入图像的稀疏特征,在保证重建精度的前提下实现降维;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆邮电大学,未经重庆邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010620731.1/2.html,转载请声明来源钻瓜专利网。