[发明专利]一种动态场景下基于深度学习的鲁棒视觉SLAM方法在审
申请号: | 202011169500.X | 申请日: | 2020-10-28 |
公开(公告)号: | CN112446882A | 公开(公告)日: | 2021-03-05 |
发明(设计)人: | 阮晓钢;郭佩远;黄静;于乃功 | 申请(专利权)人: | 北京工业大学 |
主分类号: | G06T7/10 | 分类号: | G06T7/10;G06T7/246 |
代理公司: | 北京思海天达知识产权代理有限公司 11203 | 代理人: | 沈波 |
地址: | 100124 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 动态 场景 基于 深度 学习 视觉 slam 方法 | ||
1.一种动态场景下基于深度学习的鲁棒视觉SLAM方法,其特征在于:该方法基于视觉传感器相机实现,具体包括以下步骤:
S1对相机采集的图像序列利用基于深度学习的语义分割网络将图像中的对象划分成静态对象和动态对象,动态对象的像素级语义分割作为语义先验知识;
S1.1搭建Mask R-CNN分割网络,采用Mask R-CNN网络进行潜在动态对象的语义分割;
S1.2利用MS COCO数据集作为训练样本对Mask R-CNN网络进行训练;
S1.3 Mask R-CNN网络的输入为m×n×3的RGB图像,输出为m×n×l的矩阵,通过将所有的输出通道合并成一个通道,可以获得出现在一个场景图像中的所有动态对象的分割;
S2利用运动一致性检测算法检查特征是否是动态特征;
S2.1对输入的图像序列进行ORB特征点提取;
S2.2采用光流法获取像素在图像中的运动,从而实现像素点的追踪;
S2.3使用经典的八点法估计基础矩阵F;
S2.4使用基础矩阵F和特征点计算当前帧中特征点对应的极线;
S2.5计算p2到p1对应极线的距离与预定阈值的关系来判断特征点是否移动;
S3通过插入关键帧、删除冗余地图点和关键帧、局部集束调整进行局部建图;
S4通过闭环来检测是否曾经来过此处,进行后端优化,将累计误差缩小到一个范围内。
2.根据权利要求1所述的一种动态场景下基于深度学习的鲁棒视觉SLAM方法,其特征在于:对潜在动态对象进行像素级语义分割的网络为Mask R-CNN网络。
3.根据权利要求1所述的一种动态场景下基于深度学习的鲁棒视觉SLAM方法,其特征在于:采用运动一致性检测算法检测潜在动态对象的动态特征。
4.根据权利要求1所述的一种动态场景下基于深度学习的鲁棒视觉SLAM方法,其特征在于:鲁棒视觉SLAM系统利用步骤1至4对需要的有动态对象的场景进行应用。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工业大学,未经北京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011169500.X/1.html,转载请声明来源钻瓜专利网。