[发明专利]一种像机相对位姿估计方法及系统有效
申请号: | 202010279480.5 | 申请日: | 2020-04-10 |
公开(公告)号: | CN111476842B | 公开(公告)日: | 2023-06-20 |
发明(设计)人: | 关棒磊;易见为;李璋 | 申请(专利权)人: | 中国人民解放军国防科技大学 |
主分类号: | G06T7/73 | 分类号: | G06T7/73 |
代理公司: | 长沙国科天河知识产权代理有限公司 43225 | 代理人: | 董惠文 |
地址: | 410073 湖*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 相对 估计 方法 系统 | ||
本发明公开一种像机相对位姿估计方法及系统,该方法包括:利用仿射不变特征描述子在两视图之间建立多个仿射匹配点对;根据运动约束条件构建约束方程,利用单个仿射匹配点求解约束方程闭合形式解获得两视图之间的相对位姿;通过获得的相对位姿结合RANSAC框架剔除仿射匹配点对中的误匹配点对,确定仿射匹配点对内点;利用两视图之间仿射匹配点对的内点优化相对位姿,提高像机相对位姿估计的精度。用于解决现有技术中必须要多个图像匹配点对导致计算效率低、耗费大量计算资源等问题,采用单个仿射匹配点对估计位姿,提高计算效率,降低资源配置。
技术领域
本发明涉及位姿解算技术领域,具体是一种通过两幅视图对像机相对位 姿进行估算的方法及系统。
背景技术
数十年来,同步定位和建图(SLAM),视觉里程计(VO)和三维重建(SfM) 一直是计算机视觉中活跃的研究主题。这些技术已成功应用于各类场景,例 如自动驾驶和视觉导航等领域。两视图之间的相对姿态估计是SLAM和SfM系统的重要组成部分,一直被视为SLAM和SfM系统的基础算法。因此,提高相 对姿态估计算法的精度、效率和鲁棒性仍然是人们重点关注的问题。
典型的SLAM和SfM系统都包含以下主要步骤:首先,通过特征匹配算法 来建立视图之间的图像匹配点对;然后,采用随机抽样一致(RANdom SAmple Consensus,RANSAC)等算法剔除图像匹配点对中的误匹配点对。最后,利用图 像匹配点对中的内点求解视图之间的相对位姿关系。其中误匹配点对剔除对 于相对位姿估计算法的精度和鲁棒性至关重要,同时误匹配点对剔除的效率 直接影响SLAM和SfM系统的实时性能。由于在相同的野值比例条件下, RANSAC的随机采样次数随着最小配置解所需图像匹配点对数量的增加而成 指数型增长。而当前,主流的相对位姿估计算法通过SIFT,SURF等特征描述 子获得图像匹配点对。针对三维场景,利用5个图像匹配点对求解两视图之 间的本质矩阵;针对平面场景,利用4个图像匹配点对求解两视图之间的单应矩阵。进而通过分解本质矩阵或单应矩阵,求解视图之间的相对位姿关系。 因此,研究获得相对姿态估计的最小配置解显得非常重要。
发明内容
本发明提供一种像机相对位姿估计方法及系统,用于克服现有技术中需 要多个图像匹配点对导致占用大量计算资源等缺陷,通过单个仿射匹配点对 的信息对像机的相对位姿进行估算,减少求解像机相对位姿估计所需要的匹 配点对数量,实现最小配置解,提高计算效率,大大减小计算资源配置。
为实现上述目的,本发明提供一种像机相对位姿估计方法,包括:
步骤1,利用仿射不变特征描述子在两视图之间建立多个仿射匹配点对;
步骤2,根据运动约束条件构建约束方程,利用单个仿射匹配点求解约束 方程闭合形式解获得两视图之间的相对位姿;
步骤3,通过获得的相对位姿结合RANSAC框架剔除仿射匹配点对中的误 匹配点对,确定仿射匹配点对内点;
步骤4,利用两视图之间仿射匹配点对的内点优化相对位姿并输出。
为实现上述目的,本发明还提供一种像机相对位姿估计系统,包括存储 器和处理器,所述存储器存储有像机相对位姿估计程序,所述处理器在运行 所述像机相对位姿估计程序时执行权利上述方法的步骤。
本发明提供的像机相对位姿估计方法及系统,首先通过利用ASIFT等仿 射不变特征描述子建立两视图之间的仿射匹配点对;根据运动约束条件构建 约束方程,利用单个仿射匹配点求解约束方程闭合形式解获得两视图之间的 相对位姿,每个仿射匹配点对求解获得一个相对位姿,结合RANSAC框架将 获得同一相对位姿解数量最多的仿射点匹配点对作为仿射匹配点对内点,将其余仿射匹配点对作为误匹配点对剔除,最后利用视图之间仿射匹配点对的 内点进一步优化相对位姿,以提高像机相对位姿估计的精度。
附图说明
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军国防科技大学,未经中国人民解放军国防科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010279480.5/2.html,转载请声明来源钻瓜专利网。