[发明专利]一种机器人及其同步定位与建图方法和计算机存储设备在审
申请号: | 201811302773.X | 申请日: | 2018-11-02 |
公开(公告)号: | CN111145251A | 公开(公告)日: | 2020-05-12 |
发明(设计)人: | 熊友军;白龙彪;刘志超;庞建新 | 申请(专利权)人: | 深圳市优必选科技有限公司 |
主分类号: | G06T7/73 | 分类号: | G06T7/73;G06K9/00;G06K9/46;G06K9/62 |
代理公司: | 深圳市威世博知识产权代理事务所(普通合伙) 44280 | 代理人: | 李庆波 |
地址: | 518000 广东省深圳市南*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 机器人 及其 同步 定位 方法 计算机 存储 设备 | ||
本申请公开了一种机器人及其同步定位与建图方法和计算机存储设备,该方法包括:获取机器人所处环境的图像帧;对图像帧进行特征提取,以获得多个图像特征点;从多个图像特征点中获取静态图像特征点;基于静态图像特征点进行建图或定位。通过上述方式,能够解决现有技术中动态物体影响SLAM的建图/定位结果的准确性,提高机器人对动态物体的鲁棒性。
技术领域
本申请涉及机器人技术领域,特别是涉及一种机器人及其同步定位与建图方法和计算机存储设备。
背景技术
现有视觉SLAM(simultaneous localization and mapping),即同时定位与地图构建,可以很好的解决定位与建图的需求问题。
SLAM的基本框架包括:传感器、视觉里程计(Visual Odometry,VO)、后端优化(Optimization)、建图/定位。传感器是在视觉SLAM中主要为相机图像信息的读取和预处理;视觉里程计是根据相邻图像之间相同物体的位姿变化估计出相机在相邻图像之间的相对运动信息,这个过程中一个重要的假设是相邻图像中的物体是静止不动的;后端优化是后端接受不同时刻视觉里程计的测量结果,以及回环检测的信息,对它们进行优化,建图/定位利用优化后的相机位姿得到地图/相机位姿。
本申请的发明人在长期研发中发现,当环境中存在动态物体时,动态物体的运动会给视觉位姿结算造成干扰,从而影响SLAM的建图/定位结果的准确性。
发明内容
本申请主要解决的技术问题是提供一种机器人及其同步定位与建图方法和计算机存储设备,能够解决现有技术中动态物体影响SLAM的建图/定位结果的准确性。
为解决上述技术问题,本申请采用的一个技术方案是:提供一种机器人的同步定位与建图方法,其中,所述方法包括:获取所述机器人所处环境的图像帧;对所述图像帧进行特征提取,以获得多个图像特征点;从所述多个图像特征点中获取静态图像特征点;基于所述静态图像特征点进行建图或定位。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种机器人,其中,所述机器人包括处理器和存储器,所述处理器耦接所述存储器,所述存储器用于存储计算机程序,所述处理器用于:获取所述机器人所处环境的图像帧;对所述图像帧进行特征提取,以获得多个图像特征点;从所述多个图像特征点中获取静态图像特征点;基于所述静态图像特征点进行建图或定位。
为解决上述技术问题,本申请采用的又一个技术方案是:提供一种计算机存储设备,其上存储有计算机程序,其中,所述计算机程序能够被执行以实现上述实施方式中任一项所述方法的步骤。
本申请的有益效果是:提供一种机器人及其同步定位与建图方法和计算机存储设备,该方法包括获取机器人所处环境的图像帧,对图像帧进行特征提取,以获得多个图像特征点,从多个图像特征点中获取静态图像特征点,基于静态图像特征点进行建图或定位;通过在机器人所处环境的图像帧中获取多个图像特征点,并基于多个图像特征点中获取的静态图像特征点进行建图或定位,从而计算相机位姿,能够减少机器人所处环境中动态物体影响SLAM的建图/定位结果的准确性,提高基于SLAM框架的机器人对动态物体的鲁棒性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一种机器人的同步定位与建图方法一实施例的流程示意图;
图2是图1所示步骤S23的流程示意图;
图3是图1所示步骤S14在建图模式下的流程示意图;
图4是图1所示步骤S14在定位模式下的流程示意图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市优必选科技有限公司,未经深圳市优必选科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811302773.X/2.html,转载请声明来源钻瓜专利网。