[发明专利]一种空间非合作目标精细三维形貌测量方法有效
申请号: | 202011552948.X | 申请日: | 2020-12-24 |
公开(公告)号: | CN112284293B | 公开(公告)日: | 2021-04-02 |
发明(设计)人: | 刘海波;刘子宾 | 申请(专利权)人: | 中国人民解放军国防科技大学 |
主分类号: | G01B11/24 | 分类号: | G01B11/24;G01C11/00;G01S17/894;G06T7/33;G06T7/80;G06T17/20 |
代理公司: | 长沙中科启明知识产权代理事务所(普通合伙) 43226 | 代理人: | 谭勇 |
地址: | 410000 湖南省长*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 空间 合作 目标 精细 三维 形貌 测量方法 | ||
1.一种空间非合作目标精细三维形貌测量方法,其特征在于,包括以下步骤:
步骤1,搭建TOF-单目相机融合测量系统;
步骤2,进行TOF-单目相机融合测量系统标定;
步骤2.1,采用张氏标定法标分别对TOF相机、单目相机单独进行标定,分别获取TOF相机、单目相机内参数和外参数;
步骤2.2,所述TOF相机(15)、单目相机(14)的外参数进行联合标定,由公式(1)得到TOF相机、单目相机之间的固联关系;
(1);
步骤3,利用所述TOF-单目相机融合测量系统采集图像数据并处理;
步骤3.1,利用所述TOF-单目相机融合测量系统同步获取空间非合作目标的第
步骤3.2,设所述第
(2);
步骤3.3,利用所述单目相机获取的高分辨率纹理图引导所述TOF相机获取的低分辨率深度图超分辨,获取高分辨率深度图,应用于纹理图引导深度图超分辨的鲁棒加权最小二乘法优化框架定义为:
(3)
其中,表示通过公式(3)迭代求解过程中不断更新的高分辨率深度图,表示深度图上像素点
(4)
(5)
表示纹理引导权重,表示基于像素距离的高斯函数,用来度量像素的相似性,分别表示像素处的纹理图灰度值,分别表示权重常数,是根据深度图平滑特性调整的自定义参数,根据经验取,将低分辨率深度图结合高分辨率纹理图不断迭代更新,得到高分辨率深度图;
步骤3.4,将所述高分辨率深度图恢复成三维点云,设世界坐标系与相机坐标系重合,三维点云的世界坐标为,表示高分辨率深度图中对应深度值,则可通过公式(6)将所述高分辨率深度图恢复出三维点云;
(6);
步骤4,根据2D-3D图像数据重构空间非合作目标三维点云;
步骤4.1,重复步骤3,获取处理完毕的第
步骤4.2,根据2D-2D纹理图计算位姿初值,步骤如下,
根据特征匹配点对利用对极几何约束求解位姿,设第
(7)
其中,表示叉乘运算,表示的单目相机的内参矩阵,分别表示对相机内参矩阵的逆和转置后求逆,表示的转置,可利用八点法构建线性方程组,通过奇异值分解(SVD)求解位姿得到初值;
步骤4.3,根据3D-3D点云进行ICP算法精确配准:
将求解的位姿初值代入ICP算法进行帧间的点云配准,由公式(6)得到的第
其中,
构建空间非合作目标三维点云问题转换为求解相邻两帧3D点云的欧式变换:旋转矩阵和平移向量,使得:
(8)
构建最小二乘问题,求解使得误差平方和最小的:
(9)
将位姿初值代入进行迭代求解,得到精确的旋转矩阵和平移向量,再通过公式(8)可将第
步骤5,重复步骤3、步骤4,根据2D-3D图像数据重构空间非合作目标三维点云,再将每帧点云一一配准,形成稠密完整的空间非合作目标三维点云,实现空间非合作目标精细三维形貌测量。
2.根据权利要求1所述的一种空间非合作目标精细三维形貌测量方法,其特征在于,所述TOF-单目相机融合测量系统包括TOF相机、单目相机和数据处理计算机,所述TOF相机和单目相机左右固联安装,且均与数据处理计算机相连。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军国防科技大学,未经中国人民解放军国防科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011552948.X/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种区块链智能合约的测试方法和系统
- 下一篇:半导体封装器件