[发明专利]无人机平台基于单目SLAM的多关键帧协同地面目标定位方法在审
申请号: | 201710023837.1 | 申请日: | 2017-01-13 |
公开(公告)号: | CN106803270A | 公开(公告)日: | 2017-06-06 |
发明(设计)人: | 杨涛;李治;李广坡;张艳宁;刘小飞 | 申请(专利权)人: | 西北工业大学深圳研究院;西北工业大学 |
主分类号: | G06T7/70 | 分类号: | G06T7/70;G06T7/80;G06T7/292 |
代理公司: | 西北工业大学专利中心61204 | 代理人: | 王鲜凯 |
地址: | 518000 广东省深圳市南山区粤海*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 无人机 平台 基于 slam 关键 协同 地面 目标 定位 方法 | ||
技术领域
本发明涉及一种目标定位方法,特别是涉及一种无人机平台基于单目SLAM的多关键帧协同地面目标定位方法。
背景技术
无人机对地观测系统因其廉价、操作简单、部署快捷及机动性强等显著特点,在对地观测方面发展迅速。目标精确空间定位能有效获取目标空间三维坐标,故在灾害侦察、军事国防以及民用生产等测量领域具有广泛的应用前景。
文献“A localization method of UAV flying around for ground moving target.The National Conference on Experimental Mechanics.2012.”提出了一种地面场景信息辅助的运动目标单目定位方法。该方法首先通过无人机围绕目标飞行跟拍,经过若干序列图像提取并重建运动目标周围静态场景的三维信息,利用至少三个静态场景点的三维信息得到运动目标所在的平面信息,最后通过目标视线与平面上运动目标点相交远离,求得三维坐标信息。但是,文献所述方法中,前端平面的求解计算量大且最终目标点的测量精度直接与该平面的测量精度有关,因此在实时以及高精度的测量系统的应用中具有一定的局限性。
发明内容
为了克服现有目标定位方法定位精度低的不足,本发明提供一种无人机平台基于单目SLAM的多关键帧协同地面目标定位方法。该方法首先采用无人机及其内嵌的单目相机作为数据的采集平台,再结合视觉ORB-SLAM算法完成多关键帧选取以及其位姿解算,由于ORB-SLAM可实时获得相机精确姿态,相比于通过静态场景三维点求解平面具有速度快、精度高等特点。最后利用射影重构理论通过多关键帧协同的方式求解目标的三维坐标。该方法适用于各种复杂的环境,具有较高的测量精度。
本发明解决其技术问题所采用的技术方案是:一种无人机平台基于单目SLAM的多关键帧协同地面目标定位方法,其特点是包括以下步骤:
步骤一、标定单目相机内参。
采用张氏标定法,调整标定板,连续采集20幅图像,进行角点检测,计算图像和棋盘格之间的单应变换H,利用棋盘格的几何关系,建立各视图图像中各角点的对应关系,棋盘格上所有角点的空间坐标是满足共面约束的,假设其Z坐标为0,对单应性进行计算:
其中,u,v为角点的像素坐标,X,Y为角点在棋盘格上的空间坐标。分解H如下:
H=sK[r1 r2 t](2)
其中,r1,r2,t为棋盘的位置姿态,s为标量系数,K为相机内参矩阵,利用r1和r2的正交性求解K。
步骤二、基于ORB-SLAM的关键帧姿态估计。
采用ORB-SLAM,在已知相机内参的情况下,针对输入的视频序列,ORB-SLAM算法在经过初始化操作完成后,跟踪、地图构建以及闭环检测三个线程并行操作,完成相机实时的姿态估计同时构建增量式地图,其中得到的关键帧记录了整个场景的关键信息。均匀选取五个关键帧{frel1,frel2,frel3,frel4,frel5}并记录姿态信息,作为单目尺度解算基础。
步骤三、解算场景中基于标定板的单目尺度。
单目视觉自身存在物理尺度不确定的特点,经过步骤二,ORB-SLAM算法估计得到的关键帧姿态是相对的,为了获得关键帧的真实姿态,必须恢复场景的尺度。步骤二选取的五个关键帧{frel1,frel2,frel3,frel4,frel5}画面中都含有放置的标定板,通过OPENCV开发的标定程序完成相机外参的标定,同时结合之前的相机内参,计算关键帧实际的投影矩阵得{P1,P2,P3,P4,P5}并进一步解算关键帧之间的真实姿态{Pose1,Pose2,Pose3,Pose4,Pose5}:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学深圳研究院;西北工业大学,未经西北工业大学深圳研究院;西北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710023837.1/2.html,转载请声明来源钻瓜专利网。