[发明专利]一种基于语义似然估计的粒子滤波重定位方法有效

专利信息
申请号: 202010348294.2 申请日: 2020-04-28
公开(公告)号: CN111539994B 公开(公告)日: 2023-04-18
发明(设计)人: 蒋林;刘奇;向超;方东君;朱建阳;雷斌 申请(专利权)人: 武汉科技大学
主分类号: G06T7/277 分类号: G06T7/277;G06T7/77;G06V20/50;G06V20/70;G06V10/82
代理公司: 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 代理人: 齐晨洁
地址: 430081 湖北*** 国省代码: 湖北;42
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 语义 估计 粒子 滤波 定位 方法
【权利要求书】:

1.一种基于语义似然估计的粒子滤波重定位方法,其特征在于,包括如下步骤:

步骤S1:构建栅格地图,环境中要有明显的路障特征用于障碍物信息的识别;

步骤S2:通过卷积神经网络的目标检测方法识别物体,并得到该物体的语义信息;

步骤S3:利用视觉传感器模拟激光雷达,得到语义激光数据;

步骤S4:根据机器人与视觉传感器位置关系和全局坐标系与机器人的位置关系,以及物体的语义激光数据,构建语义地图;

步骤S5:当定位出现偏差时,机器人用激光雷达和视觉传感器识别环境,通过激光栅格地图获取障碍物似然域,以及通过语义地图获取物体语义似然域;

步骤S6:预测机器人的初始位姿,并通过激光与物体语义的同时似然匹配,改变粒子权重,并进行重采样,逐渐迭代,滤波器收敛后完成对机器人状态的估计,确定机器人的准确位置;

所述步骤S3获取物体语义激光数据的具体步骤如下:

步骤S301:进行KinectV2彩色相机与深度相机的配准,以及激光雷达与彩色相机相对位置关系标定;

步骤S302:在参数标定与配准之后,将物体语义信息中的点云数据通过去除地面并只保留检测框内每一列的最近点,模拟成激光雷达击中点,得到物体的语义激光数据;

步骤S303:获取到的语义激光数据坐标如下:

zk=d/s  (l)

xk=(u-cx)*zk/fx  (2)

yk=(v-cy)*zk/fy  (3)

式中d为彩色相机的一帧照片中像素的坐标(u,v)在对应深度图中的深度值,s为深度图的缩放因子,cx、cy、fx、fy分别为RGB相机在两个轴上的焦距与光圈中心,xk、yk、zk为kinectV2坐标系下的三维坐标;

所述步骤S5中获取似然域的公式如下:

式中dist为地图中的点与最近障碍物之间的欧式距离,σ为传感器击中点与地图中障碍物点的最大距离,为传感器t时刻测量的物体的概率,zt为t时刻传感器信息,为t时刻第k个粒子的位姿信息,m为环境地图;

用似然域模型表示障碍物的概率,概率越高,障碍物的可能性就越大;在语义地图中,有了障碍物的语义类别信息,传感器击中点会寻找与地图中同类且最近障碍物点,得到dist:

2.如权利要求1所述的一种基于语义似然估计的粒子滤波重定位方法,其特征在于,所述步骤S1的具体步骤如下:

步骤S101:障碍物的选择,选取辨识度较高,并且不会移动的物体作为识别的障碍物;

步骤S102:根据激光雷达数据建立栅格地图,机器人在环境中移动一圈,根据激光雷达获取到环境的激光信息和机器人里程计信息,并利用gmapping算法建立栅格地图。

3.如权利要求1所述的一种基于语义似然估计的粒子滤波重定位方法,其特征在于,所述步骤S2的目标检测方法是采用SSD方法用于物体的检测,得到物体的语义信息,视觉识别所用的传感器是kinectV2。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉科技大学,未经武汉科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202010348294.2/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top