[发明专利]一种基于光场相机的3D四维数据采集方法及装置在审
申请号: | 201810152223.8 | 申请日: | 2018-02-14 |
公开(公告)号: | CN108470149A | 公开(公告)日: | 2018-08-31 |
发明(设计)人: | 左忠斌;左达宇;夏伟韬 | 申请(专利权)人: | 天目爱视(北京)科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00 |
代理公司: | 北京智乾知识产权代理事务所(普通合伙) 11552 | 代理人: | 华冰 |
地址: | 100094 北京市海淀*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 图片格式 图像数据 特征点 点云数据 光场相机 目标物体 四维 预处理 距离标定 数据采集 影像数据 采集 图像数据融合 模型数据 多焦点 接收光 标定 采样 合成 相机 转换 | ||
本发明提供了一种基于光场相机的3D四维数据采集方法及装置。该方法包括:接收光场相机当前对目标物体进行采集得到的影像数据;对影像数据进行多焦点采样并转换为多张预定图片格式的图像数据;将多张预定图片格式的图像数据进行预处理;将预处理后的多张预定图片格式的图像数据融合成一张预定图片格式的图像数据,并对该张预定图片格式的图像数据进行处理,得到点云数据;从点云数据中提取目标物体的特征点云信息,并根据提取的特征点云信息,进行特征点距离标定;基于特征点距离标定得到的标定距离,对点云数据进行合成,得到目标物体的3D四维模型数据。本发明实施例采用光场相机进行采集,可以显著提高采集效率。
技术领域
本发明涉及图像处理技术领域,特别是一种基于光场相机的3D四维数据采集方法及装置。
背景技术
目前的生物特征数据都是空间平面的2D数据,以头部面部的生物特征为例,有关头部面部的数据应用都停留在简单的图片应用上,即只能从某个特定的角度来对头部面部数据进行处理,识别以及其他方面的应用;又以指部的生物特征为例,主要采用2D的方式来识别某一个或者几个指部的特征,部分不法分子根据指部采集到的2D图片,仿制2D指部特征,骗过部分识别系统,给个人信息安全带来了很大的安全隐患。因此,需要对生物特征数据进行3D数据的采集。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的基于光场相机的3D四维数据采集方法及相应的装置。
根据本发明实施例的一方面,提供了一种基于光场相机的3D四维数据采集方法,包括:
步骤1,接收光场相机当前对目标物体进行采集得到的影像数据;
步骤2,对所述影像数据进行多焦点采样并转换为多张预定图片格式的图像数据;
步骤3,将所述多张预定图片格式的图像数据进行预处理,其中,所述预处理包括以下至少之一:去除背景处理、降噪处理和细节增强处理;
步骤4,将预处理后的所述多张预定图片格式的图像数据融合成一张预定图片格式的图像数据,并对该张预定图片格式的图像数据进行处理,得到点云数据;
步骤5,从所述点云数据中提取所述目标物体的特征点云信息,并根据提取的所述特征点云信息,进行特征点距离标定;
步骤6,基于所述特征点距离标定得到的标定距离,对所述点云数据进行合成,得到所述目标物体的3D四维模型数据。
可选地,所述目标物体包括:人体的面部和/或头部。
可选地,在步骤2之前,所述方法还包括:
对所述影像数据进行解码,生成预定图片格式的图像数据,对所述预定图片格式的图像数据进行定位识别,确定所述人体的面部和/或头部在预定的位置。
可选地,在确定所述人体的面部和/或头部不在预定的位置的情况下,所述方法还包括:
根据对所述预定图片格式的图像数据进行定位识别的结果,确定承载所述人体的面部和/或头部的承载设备需要移动的方向;
向所述承载设备发送控制指令,指示所述承载设备向所述需要移动的方向移动,返回步骤1。
可选地,确定所述人体的面部和/或头部在预定的位置,包括:对所述预定图片格式的图像数据进行定位识别,判断所述预定图片格式的图像数据中的人体的面部和/头部的轮廓是否完整,如果完整,则确定所述人体的面部和/或头部在预定的位置。
可选地,在对所述影像数据进行解码时,所述方法还包括:对所述影像数据进行解码处理,得到视频信号数据,将所述视频信号数据发送到引导显示屏显示。
可选地,所述目标物体包括:人体的手部。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天目爱视(北京)科技有限公司,未经天目爱视(北京)科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810152223.8/2.html,转载请声明来源钻瓜专利网。