[发明专利]基于无人机的视觉大跨度测距方法有效
申请号: | 201910628362.8 | 申请日: | 2019-07-12 |
公开(公告)号: | CN110319772B | 公开(公告)日: | 2020-12-15 |
发明(设计)人: | 刘刚;杨执钧;白雪;乔丹;钟韬 | 申请(专利权)人: | 上海电力大学 |
主分类号: | G01B11/00 | 分类号: | G01B11/00;G01B11/24;G01C11/00;G06T17/00 |
代理公司: | 上海申汇专利代理有限公司 31001 | 代理人: | 徐颖 |
地址: | 200090 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 无人机 视觉 跨度 测距 方法 | ||
1.一种基于无人机的视觉大跨度测距方法,其特征在于,具体包括如下步骤:
1)采用无人机采集视频数据与IMU数据,对视频数据进行预处理后,将预处理后带有特征点和关键帧的视频数据和IMU数据传输给地面服务器;具体实现方法如下:
1.1)首先采用kalibr工具包对无人机的摄像头与IMU的内参与外参进行标定,通过标定的参数对相机所拍摄的视频进行畸变矫正;
1.2)通过无人机航拍,获取矫正后的视频数据和IMU数据,视频数据和IMU数据包括相机的三轴加速度和角速度,图像信息;
1.3)获得视频数据和IMU数据后,提取第一张视频帧FAST特征点并通过光流法跟踪,得到后续帧匹配的特征点,根据图像中特征点多少进行关键帧筛选,然后将带有特征点和关键帧的视频数据和IMU数据通过无线传输到地面服务器;
2)利用平均视差、跟踪质量与图像模糊度挑选视频中关键帧;具体实现方法如下:
2.1)通过对匹配的特征点采用多点透视成像算法计算当前帧与上一个关键帧的旋转矩阵,平移矩阵;如果在当前帧和上一个关键帧之间跟踪的旋转矩阵,平移矩阵超出设定阈值,则将当前帧视为新的关键帧;
2.2)通过将跟踪特征数量低于设定数量的关键帧也视为新的关键帧,以此避免跟踪特征完全丢失,提高跟踪质量;
2.3)在无参考图像情况下,通过对得到的所有关键帧进行拉普拉斯变换后,再计算相邻像素间的平均梯度差,用平均梯度差来衡量模糊度,数值越低帧越模糊,当平均梯度差小于设定梯度阈值时,则剔除该关键帧;
3)利用传感器融合技术,通过IMU预积分和选取的关键帧得到相机的粗略位姿,再通过视频帧中的特征点进行非线性优化,得到相机的精确位姿,即飞行轨迹;
4)最后进行稠密重建获取实际尺度的三维重构模型,在建立的三维模型上直接进行选点测距。
2.根据权利要求1所述基于无人机的视觉大跨度测距方法,其特征在于,所述步骤3)具体实现方法如下:
3.1)通过IMU预积分计算关键帧在世界坐标系下的位姿关系,计算出相机的粗略位姿;相机的粗略位姿获取过程中通过对齐IMU数据与关键帧数据,使用关键帧图像之间的匹配来约束IMU的预计分误差;
3.2)通过非线性算法,优化特征点和相机的位姿,得到相机的精确位姿。
3.根据权利要求1或2所述基于无人机的视觉大跨度测距方法,其特征在于,所述步骤4)具体实现方法如下:
4.1)采用了极线搜索和块匹配技术在关键帧图片,对每个像素点的极线上选取3*3的像素块与其他关键帧图片相互逐个比较相似度,得到像素在各个图片中的位置;
4.2)通过对不同关键帧中同一个像素点在空间中的三维映射点采用深度滤波技术多次进行三角测量使深度估计收敛到一个稳定值;
4.3)通过相机位姿将各个关键帧图片视角下的点云进行旋转、平移到世界坐标系下,拼接得到实际尺度的三维模型,在建立的三维模型上可以直接进行选点测距。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海电力大学,未经上海电力大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910628362.8/1.html,转载请声明来源钻瓜专利网。