[发明专利]基于消费级摄像头的鲁棒实时三维重建方法有效
申请号: | 201511029299.4 | 申请日: | 2015-12-30 |
公开(公告)号: | CN105654492B | 公开(公告)日: | 2018-09-07 |
发明(设计)人: | 王宽全;李兆歆;左旺孟;张磊 | 申请(专利权)人: | 哈尔滨工业大学 |
主分类号: | G06T7/55 | 分类号: | G06T7/55;G06T17/30 |
代理公司: | 哈尔滨市松花江专利商标事务所 23109 | 代理人: | 杨立超 |
地址: | 150001 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 消费 摄像头 实时 三维重建 方法 | ||
1.基于消费级摄像头的鲁棒实时三维重建方法,其特征在于按以下步骤实现:
一、在摄像头移动的过程中,基于摄像头当前的视频帧作为输入,估计每一视频帧在场景坐标系下的相机姿态,其具体过程为:
(a)构建一组关键帧集合
在摄像头移动的过程中,依据时间距离和空间距离阈值从视频帧中选取关键帧k,每一个关键帧对应一个估计的相机姿态,所有关键帧构成关键帧集合
(b)构建三维图
三维图中包含点云数据其中pi为点云数据中的某一三维点,为的基,即中元素的数量,当新的关键帧被加入关键帧集合时,它与关键帧集合中其他关键帧执行立体匹配,产生新的点云数据加入点云中的每一个三维点pi记录着它的三维坐标,法线方向,像素特征;
(c)三维图和关键帧集合通过全局捆绑调整进行精细优化:
其中ejk为第j个三维点相对于第k个关键帧的重投影误差,Obj为Huber函数,以增加对噪声和野点的鲁棒性,Sk为在关键帧k上可见的三维图的子集,和分别表示第2个和第个关键帧的相机姿态估计值;μ为待优化的相机姿态,p为待优化的三维点;
(d)估计每一视频帧在场景坐标系下的相机姿态:
相机姿态为三维空间的刚体变换,假设当前视频帧序号为i,相机姿态包括了3×3的旋转矩阵Ri和3×1的平移矢量ti,在李群和李代数中,用一个6维的矢量μi等价的表示相机姿态;配准当前视频帧i与三维图即寻找最优的相机姿态参数使得三维图中相对于视频帧i的可见点集Si的重投影误差最小:
其中,μ为待优化相机姿态,ej代表Si中第j个三维点相对于当前视频帧i的重投影误差,Obj为Huber函数;
二、在视频帧中选择最佳的关键帧用于深度估计,其具体过程为:
(一)将关键帧集合中的关键帧按照和当前帧的基线大小的升序排列,并选择前M帧构成一个子集,从中选择与当前帧夹角最小的关键帧子集假设关键帧集合中的相机中心坐标依次是c1,c2,c3...cn,当前帧的相机中心坐标为c,当前帧与第m个关键帧的基线的计算方法是:
(二)根据基线大小,按照升序进行排序,根据距离阈值T从中选择一个关键帧子集T值定义为相邻关键帧之间距离的平均值的2倍,当前帧与关键帧之间的夹角的计算如下:
假设当前帧的光学轴为r,某一关键帧的光学轴为rm,则二者的夹角为:
其中·为点积操作,||为矢量范数;
(三)根据当前帧与关键帧子集中的关键帧逐个的计算夹角,从中选择夹角最小的关键帧Km作为最佳关键帧用于下一步的深度估计;
三、采用快速鲁棒的深度估计算法估计每一视频帧的深度信息得到每一视频帧的深度图:
四、将每一视频帧的深度图转化为截断符号距离场,并在体素上执行增量的深度融合,最后输出三角网格表面,即完成了基于消费级摄像头的鲁棒实时三维重建方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工业大学,未经哈尔滨工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201511029299.4/1.html,转载请声明来源钻瓜专利网。