[发明专利]一种机器人重定位方法、装置、设备及存储介质在审
申请号: | 202110253309.1 | 申请日: | 2021-03-05 |
公开(公告)号: | CN112907657A | 公开(公告)日: | 2021-06-04 |
发明(设计)人: | 颜炳姜;朱小康;郑贵刚;张家辉 | 申请(专利权)人: | 科益展智能装备有限公司;科益展智能装备有限公司广州分公司;汇专科技集团股份有限公司 |
主分类号: | G06T7/70 | 分类号: | G06T7/70;G06T7/50 |
代理公司: | 广州三环专利商标代理有限公司 44202 | 代理人: | 黄华莲;郝传鑫 |
地址: | 510663 广东省广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 机器人 定位 方法 装置 设备 存储 介质 | ||
1.一种机器人重定位方法,其特征在于,包括:
获取机器人的拍摄设备捕捉到的图像关键帧;其中,图像关键帧包括2D图像;
将2D图像与所述机器人预存的地图关键帧进行图像匹配,得到一估计位姿;
对所述图像关键帧进行点云变换得到第一3D点云,并获取所述地图关键帧的第二3D点云;其中,第一3D点云的一个3D特征点和对应的第二3D点云的3D特征点作为一对匹配点对,每一对匹配点对应现实场景中同一个点;
计算每一对匹配点对之间的距离作为距离误差,并根据所述距离误差确定总距离误差;
根据所述总距离误差和所述估计位姿,计算得到重定位位姿。
2.如权利要求1所述的机器人重定位方法,其特征在于,所述根据所述总距离误差和所述估计位姿,计算得到重定位位姿,包括:
将所述总距离误差与预设的误差容忍值进行比较;
在所述总距离误差小于或等于所述误差容忍值的情况下,确定所述估计位姿正确,并计算得到重定位位姿;
在所述总距离误差大于所述误差容忍值的情况下,确定所述估计位姿不正确,并重新获取图像关键帧和估计位姿。
3.如权利要求1所述的机器人重定位方法,其特征在于,所述图像关键帧还包括对应所述2D图像的深度图像;所述地图关键帧包括2D地图图像以及对应所述2D地图图像的深度地图图像;
所述对所述图像关键帧进行点云变换得到第一3D点云,并获取所述地图关键帧的第二3D点云,包括:
根据所述图像关键帧的深度图像,对所述2D图像进行点云转换,得到第一3D点云;
根据所述地图关键帧的深度地图图像,对所述地图关键帧的2D地图图像进行点云转换得到第二3D点云,或者获取预存在所述地图关键帧中的第二3D点云。
4.如权利要求1或3所述的机器人重定位方法,其特征在于,所述计算每一对匹配点对之间的距离误差,并根据所述距离误差确定总距离误差,包括:
获取每一对匹配点对的坐标信息,并根据每一对匹配点对的坐标信息计算每一对匹配点对之间的距离,作为每一对匹配点对的距离误差;
对各对匹配点对的距离误差求和,得到所述总距离误差。
5.如权利要求1所述的机器人重定位方法,其特征在于,所述获取机器人的拍摄设备捕捉到的图像关键帧,包括:
获取所述拍摄设备采集到的视频流,并从所述拍摄设备采集到的视频流中提取图像关键帧。
6.如权利要求5所述的机器人重定位方法,其特征在于,所述从所述拍摄设备采集到的视频流中提取图像关键帧,包括:
对所述视频流进行解码,得到若干帧当前位姿的图像帧,所述图像帧包括图像帧2D图像;
对当前位姿的图像帧2D图像进行2D特征点提取,得到图像帧2D图像的2D特征点,并统计图像帧2D图像的2D特征点的数量;
将当前位姿的图像帧2D图像的2D特征点的数量与预设的第一数量阈值进行比较;
在当前位姿的图像帧2D图像的2D特征点的数量大于或等于所述第一数量阈值的情况下,提取出当前位姿对应的图像帧作为图像关键帧;
在当前位姿对应的图像帧2D图像的2D特征点的数量小于所述第一数量阈值的情况下,剔除当前图像帧,并控制所述机器人旋转到下一位姿,并获取所述机器人在下一位姿输出的视频流。
7.如权利要求1所述的机器人重定位方法,其特征在于,所述将所述2D图像与所述机器人预存的地图关键帧进行图像匹配,得到一估计位姿,包括:
将所述2D图像的2D特征点和所述地图关键帧中的2D特征点进行匹配,在2D特征点的特征向量匹配量大于或等于第二数量阈值的情况下,则匹配成功,然后经计算得到估计位姿;
在2D特征点的特征向量匹配量小于第二数量阈值的情况下,则控制机器人旋转到下一位姿,并获取所述机器人在下一位姿的图像关键帧。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于科益展智能装备有限公司;科益展智能装备有限公司广州分公司;汇专科技集团股份有限公司,未经科益展智能装备有限公司;科益展智能装备有限公司广州分公司;汇专科技集团股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110253309.1/1.html,转载请声明来源钻瓜专利网。