[发明专利]基于无人机的视觉大跨度测距方法有效
申请号: | 201910628362.8 | 申请日: | 2019-07-12 |
公开(公告)号: | CN110319772B | 公开(公告)日: | 2020-12-15 |
发明(设计)人: | 刘刚;杨执钧;白雪;乔丹;钟韬 | 申请(专利权)人: | 上海电力大学 |
主分类号: | G01B11/00 | 分类号: | G01B11/00;G01B11/24;G01C11/00;G06T17/00 |
代理公司: | 上海申汇专利代理有限公司 31001 | 代理人: | 徐颖 |
地址: | 200090 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 无人机 视觉 跨度 测距 方法 | ||
本发明涉及一种基于无人机的视觉大跨度测距方法,可用于大场景测距。通过飞行器携带视觉传感器,对需要测量的对象场景进行影像数据的获取并通过飞控获取IMU信息;通过图传将数据传给地面站;通过光流法跟踪FAST特征点并筛选提取关键帧;通过非线性优化进行传感器数据融合;利用多立体视觉技术对场景进行三维建模;在三维模型中选取测量点进行测距。本发明方法通过关键帧与图像模糊度筛选减少冗余图片数量,减轻重构时间,提高重构效率;与纯图片的三维重构相比,可以重构出真实尺度的三维模型且模型精度更高;与GPS与图像融合相比,可以在无GPS信号环境下(如山区、室内)进行三维重构,提高了系统的鲁棒性。
技术领域
本发明涉及一种测绘技术,特别涉及一种基于无人机的视觉大跨度测距方法。
背景技术
目标场景的三维重构技术在测绘领域得到了广泛的应用。三维重构可以将多视角拍摄的二维图像重建成空间物体的三维模型,进行物体尺寸的测量。以花坛举例,人们想要测量花坛的直径周长,由于花坛尺寸较大无法直接测量。通过无人机对花坛航拍,可以重构出花坛的三维模型,在模型上选点即可获得花坛的真实尺寸。目前有两种三维建模的方式。1)完全通过图像进行三维建模,但所得的三维模型缺乏尺度因子,需要在模型中换算比例尺。2)通过GPS与图像融合的方式,计算出实际尺寸的三维模型。但该方法,对GPS定位精度高。在无GPS信号环境下无法进行重构,如山区,室内等。
发明内容
本发明是针对空间物体测距存在的问题,提出了一种基于无人机的视觉大跨度测距方法,基于IMU(惯性测量单元)与图像融合的三维重构测距方法,可以得到真实尺度的三维模型,同时增加了重构的鲁棒性,在无GPS信号环境下也能进行三维重构。
本发明的技术方案为:一种基于无人机的视觉大跨度测距方法,具体包括如下步骤:
1)采用无人机采集视频数据与IMU数据,对视频数据进行预处理后,将预处理后带有特征点和关键帧的视频数据和IMU数据传输给地面服务器;
2)利用平均视差、跟踪质量与图像模糊度挑选视频中关键帧;
3)利用传感器融合技术,通过IMU预积分和选取的关键帧得到相机的粗略位姿,再通过视频帧中的特征点进行非线性优化,得到相机的精确位姿,即飞行轨迹;
4)最后进行稠密重建获取实际尺度的三维重构模型,在建立的三维模型上直接进行选点测距。
所述步骤1)具体实现方法如下:
1.1)首先采用kalibr工具包对无人机的摄像头与IMU的内参与外参进行标定,通过标定的参数对相机所拍摄的视频进行畸变矫正;
1.2)通过无人机航拍,获取矫正后的视频数据和IMU数据,视频数据和IMU数据包括相机的三轴加速度和角速度,图像信息;
1.3)获得视频数据和IMU数据后,提取第一张视频帧FAST特征点并通过光流法跟踪,得到后续帧匹配的特征点,根据图像中特征点多少进行关键帧筛选,然后将带有特征点和关键帧的视频数据和IMU数据通过无线传输到地面服务器。
所述步骤2)具体实现方法如下:
2.1)通过对匹配的特征点采用多点透视成像算法计算当前帧与上一个关键帧的旋转矩阵,平移矩阵;如果在当前帧和上一个关键帧之间跟踪的旋转矩阵,平移矩阵超出设定阈值,则将当前帧视为新的关键帧;
2.2)通过将跟踪特征数量低于设定数量的关键帧也视为新的关键帧,以此避免跟踪特征完全丢失,提高跟踪质量;
2.3)在无参考图像情况下,通过对得到的所有关键帧进行拉普拉斯变换后,再计算相邻像素间的平均梯度差,用平均梯度差来衡量模糊度,数值越低帧越模糊,当平均梯度差小于设定梯度阈值时,则剔除该关键帧。
所述步骤3)具体实现方法如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海电力大学,未经上海电力大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910628362.8/2.html,转载请声明来源钻瓜专利网。