[发明专利]一种应用于动态变化场景下的多传感器融合定位方法有效
申请号: | 202011352819.6 | 申请日: | 2020-11-26 |
公开(公告)号: | CN112461237B | 公开(公告)日: | 2023-03-14 |
发明(设计)人: | 安康;付卫婷 | 申请(专利权)人: | 浙江同善人工智能技术有限公司 |
主分类号: | G01C21/16 | 分类号: | G01C21/16;G01C21/20 |
代理公司: | 上海伯瑞杰知识产权代理有限公司 31227 | 代理人: | 周兵 |
地址: | 314100 浙江省嘉*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 应用于 动态 变化 场景 传感器 融合 定位 方法 | ||
1.一种应用于动态变化场景下的多传感器融合定位方法,其特征在于,在每个运行周期,对机器人的位置信息进行更新,每次更新包括以下步骤:
(1)获取机器人的运动预测值,在视觉信息正常时,所述运动预测值采用视觉标定的行走里程信息以及惯性单元测量数据;在视觉信息缺乏时,所述运动预测值采用行走里程信息;
(2)获取机器人的运动测量值;在视觉信息正常时,将通过视觉信息获得的位置信息作为运动测量值,在视觉信息缺乏时,将惯性单元测量数据作为运动测量值;
(3)根据机器人的运动测量值以及运动预测值,采用无损卡尔曼滤波以及粒子滤波结合的方式进行数据融合,得到机器人的定位信息。
2.根据权利要求1所述的一种应用于动态变化场景下的多传感器融合定位方法,其特征在于:在机器人运动过程中,通过摄像头获取图像,并尝试从图像中识别周边场景中的场地特征;若场地特征识别成功,表示视觉信息正常,否则表示视觉信息缺乏。
3.根据权利要求1所述的一种应用于动态变化场景下的多传感器融合定位方法,其特征在于,对行走里程信息进行视觉标定包括以下步骤:
(1.1)设定机器人的行走控制量;
(1.2)在机器人的位移量达到行走控制量时,根据视觉信息计算机器人的实际位置变化量;
(1.3)记录实际变化量与行走控制量的比值作为标定系数。
4.根据权利要求1所述的一种应用于动态变化场景下的多传感器融合定位方法,其特征在于,在步骤(1)中,对行走里程信息进行标定的过程中,使用惯性测量单元陀螺仪的z轴旋转量修正行走里程计的旋转量。
5.根据权利要求1或3所述的一种应用于动态变化场景下的多传感器融合定位方法,其特征在于,通过视觉信息获得机器人的位置信息包括以下步骤:
(2.1)通过机器人的摄像头获取图像,并获取场地特征在像素坐标系下的表示;所述场地特征的世界坐标系下的坐标为已知量;
(2.2)根据场地特征在像素坐标系下的表示以及在世界坐标系下的坐标,解算出机器人的位置信息。
6.根据权利要求1所述的一种应用于动态变化场景下的多传感器融合定位方法,其特征在于,
行走里程信息包括行走里程计开环控制量;
惯性单元测量数据包括加速度计各方向上的积分。
7.根据权利要求1所述的一种应用于动态变化场景下的多传感器融合定位方法,其特征在于,对运动测量值以及运动预测值采用无损卡尔曼滤波以及粒子滤波结合的方式进行数据融合具体包括以下步骤:
(3.1)根据起始位置初始化粒子滤波所需要的定位初始粒子点;
(3.2)对每个粒子进行无损卡尔曼滤波;
(3.3)代入机器人的运动预测值,对各粒子进行更新;
(3.4)代入运动测量值,进行测量更新;
(3.5)计算每个粒子的权重,并且若是误差协方差低于设定阈值,则对粒子进行重采样;
(3.6)融合各粒子点的数据加权计算机器人的位置。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江同善人工智能技术有限公司,未经浙江同善人工智能技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011352819.6/1.html,转载请声明来源钻瓜专利网。
- 上一篇:自动化拍摄控制方法及装置、自动拍摄设备
- 下一篇:一种数据调用方法及装置