[发明专利]一种基于双目视觉SLAM的动态场景密集建模方法有效
申请号: | 201910812827.5 | 申请日: | 2019-08-30 |
公开(公告)号: | CN110706269B | 公开(公告)日: | 2021-03-19 |
发明(设计)人: | 王晨捷;罗斌;王伟;赵青;尹露;李成源;张婧;李露;郝世伟;余启凯 | 申请(专利权)人: | 武汉斌果科技有限公司 |
主分类号: | G06T7/55 | 分类号: | G06T7/55;G06T7/215;G06T7/285 |
代理公司: | 北京联瑞联丰知识产权代理事务所(普通合伙) 11411 | 代理人: | 黄冠华 |
地址: | 430075 湖北省武汉市东湖新技术开发区光谷大道3号激光工*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于双目视觉SLAM的动态场景密集建模方法,包括:输入双目图像序列,对图像进行纠正,并对图像进行ORB特征点提取,并进行双目系列和时间序列上的匹配;基于多模型拟合进行运动分割,分割出场景中的相机自身运动模型和不同运动的动态物体运动模型,并估计出相机和动态物体的运动,进行局部光束法平差优化,得到相机和动态物体的轨迹;结合超像素分割,获得运动物体全部像素点分割结果,进而获得动态物体密集三维模型和静态背景密集点云地图,从而实现在动态场景中同时估计出相机和动态物体运动轨迹,也实现同时对静态背景和动态物体进行密集建模。 | ||
搜索关键词: | 一种 基于 双目 视觉 slam 动态 场景 密集 建模 方法 | ||
【主权项】:
1.一种基于双目视觉SLAM的动态场景密集建模方法,其特征在于,包括以下步骤:/nS1,输入双目图像序列,根据已知的相机内参外参对图像进行纠正,对图像进行ORB特征点提取,在每个双目像对中对左右影像的特征点进行匹配,并在连续双目帧的像对中进行时间序列上的匹配;/nS2,基于多模型拟合进行运动分割,将相同运动的特征点聚类为一个运动模型参数,分割出场景中的相机自身运动模型和不同运动的动态物体运动模型,同时估计出相机和动态物体的运动;/nS3,对估计出的相机和动态物体的位姿,进行局部光束法平差优化,得到相机和动态物体的轨迹;/nS4,根据输入双目图像序列,进行超像素分割,并结合S2,获得运动物体全部像素点分割结果,进而获得动态物体密集三维模型和静态背景密集点云地图。/n
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉斌果科技有限公司,未经武汉斌果科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910812827.5/,转载请声明来源钻瓜专利网。