[发明专利]一种利用相机进行三维成像的算法和系统有效
申请号: | 201610367609.1 | 申请日: | 2016-05-31 |
公开(公告)号: | CN107454377B | 公开(公告)日: | 2019-08-02 |
发明(设计)人: | 戴亦军;戴友平;徐旭珊 | 申请(专利权)人: | 深圳市微付充科技有限公司;戴友平;戴亦军 |
主分类号: | H04N13/204 | 分类号: | H04N13/204;H04N13/296 |
代理公司: | 深圳市威世博知识产权代理事务所(普通合伙) 44280 | 代理人: | 钟子敏 |
地址: | 518000 广东省深圳市前海深港合作区前*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 利用 相机 进行 三维 成像 算法 系统 | ||
本发明公开了一种利用相机进行三维成像的算法和系统。其将所述连续拍摄获得的一组照片的多张照片进行分析,对每张照片中每个像素或一组像素的清晰度进行判断,对于可容许范围弥散圆直径D以内的成像像素点R视为清晰成像,再根据该照片的焦距和景深信息,获得像素点R与相机镜头之间的距离范围(df,dc),其中df为最远距离,dc为最近距离。通过使用连续拍摄获得的多张照片,进行比对后可以完成对于景物的三维成像,提供了一种新的三维成像算法。
技术领域
本发明涉及图像处理技术领域,尤其涉及一种利用相机进行三维成像的算法和系统。
背景技术
三维信息获取如今被广泛的应用于三维建模,3D打印,目标探测等多个应用领域中。景物三维信息的获取方法有许多种,包括利用计算机视角,从二维图形中获取三维信息,利用光场信息获取物体三维信息的光场法、接触探针等方法。
使用结构光对目标物体进行主动式测量,其扫描速度较快,但仅适用于室内物体表面反射情况较好的场合。飞行时间法则是利用探测脉冲的飞行时间获得目标物体的深度信息,其图像获取速度和分辨率受限于扫描速度和扫描点数。
因此,现有技术还有待发展。
发明内容
鉴于上述现有技术的不足之处,本发明的目的在于提供一种利用相机进行三维成像的算法和系统,旨在提供一种新的三维成像算法应用于3D打印或者生成其他视角图片。
为了达到上述目的,本发明采取了以下技术方案:
一种利用相机进行三维成像的系统,其中,所述系统包括:至少一个相机,所述相机是单目相机或多目相机,通过连续拍摄获得一组照片,对这组照片信息进行对比并获取所拍摄景物的三维信息。
所述的利用相机进行三维成像的系统,其中,所述相机通过手动或自动变焦,对同一个景物进行连续拍摄。
所述的利用相机进行三维成像的系统,其中,所述相机通过手动或自动调节镜头光圈大小,对同一个景物进行连续拍摄。
一种基于如上所述的利用相机进行三维成像的系统的算法,其中,将所述连续拍摄获得的一组照片的多张照片进行分析,对每张照片中每个像素或一组像素的清晰度进行判断,对于可容许范围弥散圆直径D以内的成像像素点R视为清晰成像,再根据该照片的焦距和景深信息,获得像素点R与相机镜头之间的距离范围(df,dc),其中df为最远距离,dc为最近距离。
所述的利用相机进行三维成像的算法,其中,将所述连续拍摄获得的多张照片进行对比匹配,对多张照片中显示的同一个像素点R建立映射关系,并根据如上所述的方法筛选出像素点R为清晰的照片分组,根据分组中每张照片的焦距、光圈、景深和/或其他信息,以及每张照片的像素点R与相机镜头之间的距离范围(df,dc),通过求均值和其它方法计算出像素点R与相机镜头之间的准确距离。
所述的利用相机进行三维成像的算法,其中,所述连续拍摄获得的多张照片进行对比匹配,用清晰的像素代替模糊的像素,同时根据所述像素点R与相机镜头之间的准确距离,从而获得整张照片每个像素点的深度信息,如果相邻的像素之间的深度差值大于某个阀值时,通过差值及其它的转换处理算法进行深度信息的拟合。
所述的利用相机进行三维成像的系统,其中,所述相机手持或固定在支架上,通过移动相机位置进行连续拍摄,所述移动相机位置的移动方式包括:左右水平移动、前后水平移动、上下垂直移动,水平旋转移动、垂直旋转移动、螺旋型旋转同时在垂直于旋转面方向移动,以及其它的移动方式,
所述支架支持上述至少一种移动方式协助所述相机进行拍摄。
所述的利用相机进行三维成像的系统,其中,所述支架带有刻度,对固定在支架上的相机的位移量提供精确值。
所述的利用相机进行三维成像的系统,其中,所述支架的移动量同步记录在如上所述的相机在相应位置拍摄的每张照片上。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市微付充科技有限公司;戴友平;戴亦军,未经深圳市微付充科技有限公司;戴友平;戴亦军许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201610367609.1/2.html,转载请声明来源钻瓜专利网。