[发明专利]一种动态场景下的基于概率传递模型的环境感知方法有效
申请号: | 202010909488.5 | 申请日: | 2020-09-02 |
公开(公告)号: | CN112037268B | 公开(公告)日: | 2022-09-02 |
发明(设计)人: | 陈宗海;李奥;王纪凯;戴德云;徐萌 | 申请(专利权)人: | 中国科学技术大学 |
主分类号: | G06T7/277 | 分类号: | G06T7/277;G06T7/269;G06T7/246;G06T7/35;G06T7/215 |
代理公司: | 北京凯特来知识产权代理有限公司 11260 | 代理人: | 郑立明;陈亮 |
地址: | 230026 安*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 动态 场景 基于 概率 传递 模型 环境 感知 方法 | ||
本发明公开了一种动态场景下的基于概率传递模型的环境感知方法,首先利用几何模型剔除待处理图像中的动态特征点,获得几何模型下特征点的动态概率;利用Mask R‑CNN神经网络模型进行语义分割,根据语义分割结果得到待处理图像中动态物体所在区域;结合动态特征点在几何模型和语义分割下的状态概率,基于贝叶斯定理的概率传递模型更新待处理图像中特征点的状态概率,剔除动态异常点,从而减少由于动态特征点造成的错误数据关联,保证视觉SLAM系统的定位精度和建图质量。该方法能够消除动态物体造成SLAM系统前端出现错误的数据关联,提升视觉SLAM系统在动态场景下的定位精度和鲁棒性。
技术领域
本发明涉及虚拟现实技术领域,尤其涉及一种动态场景下的基于概率传递模型的环境感知方法。
背景技术
同时定位与建图(Simultaneous Localization and Mapping,SLAM)技术是为了解决机器人的自定位和环境感知问题而提出,并且已经在许多不同领域有着广泛应用,包括自动驾驶、机器人导航和虚拟现实等。然而当前已有的SLAM框架都是基于静态场景的假设,场景中的动态物体会造成错误的数据关联结果进而影响SLAM系统中的跟踪和建图过程。近年来,针对动态场景的视觉SLAM方法研究已经取得了许多进展,但这些方法都有各自的优点和局限性,现有技术中动态场景下的视觉SLAM方案存在如下问题:
1)动态物体造成SLAM系统前端出现错误的数据关联,导致定位精度降低,进而影响后端的回环检测过程,无法得到准确的环境地图;
2)基于几何模型RANSAC算法的SLAM系统仅能剔除少量的动态物体,在动态物体占据较大比例的场景无法可靠剔除异常点匹配;
3)基于深度学习方法的视觉SLAM系统针仅能剔除特定种类的动态物体进行分割,并且深度学习网络模型有时无法保证精确的语义分割,导致部分静态物体被剔除进而降低定位精度与建图质量。
发明内容
本发明的目的是提供一种动态场景下的基于概率传递模型的环境感知方法,该方法能够消除动态物体造成SLAM系统前端出现错误的数据关联,提升视觉SLAM系统在动态场景下的定位精度和鲁棒性,从而得到完整的静态场景地图。
本发明的目的是通过以下技术方案实现的:
一种动态场景下的基于概率传递模型的环境感知方法,所述方法包括:
步骤1、利用几何模型剔除待处理图像中的动态特征点,获得几何模型下特征点的动态概率;
步骤2、利用Mask R-CNN神经网络模型进行语义分割,根据语义分割结果得到待处理图像中动态物体所在区域,划分出待处理图像中的动态特征点;
步骤3、结合动态特征点在几何模型和语义分割下的状态概率,基于贝叶斯定理的概率传递模型更新待处理图像中特征点的状态概率,剔除动态异常点,从而减少由于动态特征点造成的错误数据关联,保证视觉SLAM系统的定位精度和建图质量。
由上述本发明提供的技术方案可以看出,上述方法能够消除动态物体造成SLAM系统前端出现错误的数据关联,提升视觉SLAM系统在动态场景下的定位精度和鲁棒性,从而得到完整的静态场景地图。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的动态场景下的基于概率传递模型的环境感知方法示意图。
具体实施方式
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学技术大学,未经中国科学技术大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010909488.5/2.html,转载请声明来源钻瓜专利网。