[发明专利]一种基于Kinect传感器的三维重建方法在审
申请号: | 201810224403.2 | 申请日: | 2018-03-19 |
公开(公告)号: | CN108389260A | 公开(公告)日: | 2018-08-10 |
发明(设计)人: | 陈亮;刘泽森;金尚忠;杨凯;石岩;邹细勇;张淑琴 | 申请(专利权)人: | 中国计量大学 |
主分类号: | G06T17/20 | 分类号: | G06T17/20;G06T7/521 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 310018 浙江省杭*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 传感器 三维重建 点云 深度图像信息 旋转不变性 获取目标 深度图像 双边滤波 不变性 传统的 特征点 降噪 配准 尺度 分割 科研 应用 改进 | ||
本发明的目的在于提供一种基于Kinect传感器进行物体的三维重建的方法,其特征在于:通过Kinect传感器来获取目标物体的深度图像信息,采用背景差分点云分割和双边滤波的方法对得到的深度图像进行降噪等处理,最后使用具有尺度不变性和旋转不变性的SURF算法来提取RGB图像的特征点,并改进传统的ICP算法最大限度提高点云配准的速度和质量。本方法在科研及工业生产上具有很大的应用前景。
技术领域
本发明涉及一种利用Kinect传感器获取深度图像,通过对深度图像滤波、目标图像三维点云获取、点云配准等,完成对目标图像的三维重建技术。本发明属于计算机视觉领域。
背景技术
物体三维重建一直是计算机视觉领域最热门的研究方向之一,是机器视觉、图像处理和模式识别等多学科交叉的研究领域,在理论和实际应用中有着举足轻重的意义。物体三维重建是研究如何获取物体在空间中的三维信息并将其信息以适合人眼观察或仪器处理的形式表达。现阶段,物体三维重建技术在多方面得到应用,特别是在科研、考古及工业生产设计等专业领域。目前,物体三维重建的关键点和难点是:如何获取物体的三维数据,在世界坐标系下计算机处理的三维数据中如何与物体实际相对应;在获取物体的三维数据的过程中,如何对由于设备本身以及外界环境因素所产生的噪音进行滤除;以及如何在确保物体三维重建的精确度的条件下,加快重建的速度。
随着Kinect传感器的发展,Kinect传感器先进的深度图像获取能力有助于三维重建技术的发展与提高。Kinect传感器主要由深度摄像机和RGB摄像机来获取外界的三维信息。深度摄像机由红外投影机和红外深度摄像机构成。红外投影机主要用于向外界发射均匀的红外线,并在目标上形成红外散斑图像;目标反射得到的散斑图像信息由红外深度摄像机接收,最后得到目标的深度图像。RGB摄像机主要获取实验环境或实验物体的RGB图像信息。Kinect传感器的深度摄像机快速获取物体的深度图像,数据量丰富,实时性好,精确度较高,在科研及工业生产上得到广泛应用。
发明内容
本发明针对现有物体三维重建技术的不足,提出一种基于Kinect传感器获取物体彩色和深度图像,通过对深度图像滤波并采用点云分割提取目标区域图像,最后提取物体RGB图像特征点利用改进ICP算法对点云图像拼接,从而完成物体三维重建的技术。
进一步的,所述Kinect传感器获取物体深度图像是由红外投影机向外界发射均匀的红外线,在物体表面形成红外散斑,物体反射得到的散斑图像信息由红外深度摄像机接收,最后得到目标的深度图像。
进一步的,所述对深度图像滤波并进行点云分割是为了获得更为精确的三维点云数据。深度数据不可避免都会有噪音存在,而使用双边滤波的方法可以在滤除噪声的同时,保留深度图像的边缘信息,不对深度图像的轮廓产生畸变。
采用的点云分割是背景差分法,通过去除被实验物体得到实验背景的深度图像,以深度图像中各像素点的平均值来建立背景模型。同时设深度图像与背景模型同一像素点的差值为D(x,y),阈值为M,则背景差分表达式为:
进一步的,所述提取物体RGB图像特征点是采用具有尺度不变性和旋转不变性的SURF特征检测方法,提取两幅或多幅不同角度下的物体RGB图像的特征点,实现RGB图像的配准。
进一步的,所述改进ICP点云配准是在传统ICP算法基础上,将深度图像点云划分成盒子结构并编序。在源数据点集P提取的特征点中选不共线三点Pa、Pb、Pc构建三角形,再找到Pa、Pb在目标点集Q中的最近点Qd、Qe,利用三角形相似找到Pc对应点Qf。重复上述操作直到所有源数据点云与目标数据点云的对应点对关系都被确定。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国计量大学,未经中国计量大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810224403.2/2.html,转载请声明来源钻瓜专利网。