[发明专利]一种基于变焦测距的三维建模方法及系统有效
申请号: | 201610723110.X | 申请日: | 2016-08-25 |
公开(公告)号: | CN106254855B | 公开(公告)日: | 2017-12-05 |
发明(设计)人: | 林金田;林发;林元霞 | 申请(专利权)人: | 锐马(福建)电气制造有限公司 |
主分类号: | H04N13/02 | 分类号: | H04N13/02;G06T19/00 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 351139 福*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 变焦 测距 三维 建模 方法 系统 | ||
技术领域
本发明涉及物体三维重建领域,特别涉及一种基于变焦测距的三维建模方法及其系统。
背景技术
三维重建具有广泛的应用领域,包括体积测量、立体显示、3D打印、物体模型建立等。现有三维重建一般采用双目时差法,通过两个摄像头对物体进行拍摄,通过两个拍摄图像的微小差别,获得物体的立体信息并进行三维重构。然而,这种方法存在不足之处:三维物体的一些局部区域,在两张图像中,并不同时出现,当物体的局部出现在左图像并且未出现在右图像,此时该位置的深度信息的处理往往是不精确的。综上,现有技术由于其技术原理本身的缺陷,造成局部区域不能很好地获得图像深度信息,影响物体的三维重建,需要探求一种物体三维重建新方法。
发明内容
有鉴于现有技术的上述缺陷,本发明所要解决的技术问题是提供一种基于变焦测距的三维建模方法,旨在解决现有技术由于其技术原理本身的缺陷,即造成局部区域不能很好地获得图像深度信息,影响物体的三维重建的技术问题。
为实现上述目的,本发明提供了一种基于变焦测距的三维建模方法,包括:
步骤S1、将目标物体划分为若干子区域;
步骤S2、变焦采集各个所述子区域图像,根据对焦评价函数值,获取所述 子区域的正焦图像,并采集所述子区域的焦距或物距;所述变焦评价函数值用于衡量所述子区域是否准确对焦,所述正焦图像为所述子区域准确对焦的图像;
步骤S3、根据各个所述子区域的正焦图像和各个所述子区域的焦距或物距,建立三维模型。
在该技术方案中,将目标分割为多个子区域,分别对每个子区域进行对焦,通过图像处理判断是否对焦,获取正焦图像并记录焦距。根据各个子区域的焦距或物距信息获得深度信息,并进行三维重建。该技术方案提供了一种快速三维重建方法,避免了双目视差法三维重建局部区域获得不了精确的三维深度信息。
进一步而言,所述步骤S2,具体包括:
采集第k个子区域Jk的第i张变焦图像内与所述子区域相对应的M×N个像素的RGB值;
计算所述子区域Jk的第i张变焦图像的对焦评价函数值
获取所述子区域Jk在I张所述变焦图像中的对焦评价函数最大值所述对焦评价函数最大值相应的变焦图像为所述子区域的正焦图像;所述 所述I为变焦图像总数,I为自然数;
所述
其中,所述i、k、M、N为自然数,所述x满足1≤x≤M,所述y满足1≤y≤N,所述Ri(x,y)、Gi(x,y)、Bi(x,y)分别为像素的RGB值;所述为子区域Jk内R像素平均值,所述为子区域Jk内G像素平均值,所述为子区域Jk内B像素平均值。
在该技术方案中,通过获取 RGB三色的对焦评价函数,对焦评价精度高。
进一步而言,所述步骤S3,还包括:根据所述物距或焦距,生成子区域图像放大倍率,修正各个所述子区域的尺寸。
在该技术方案中,基于近大远小原理,根据焦距对各个图层的尺寸大小进行修正,即越靠近镜头的物体,放大倍率越小;其有益之处在于,提高三维建模的精度和准确性。
有鉴于现有技术的缺陷,本发明所要解决的第二个技术问题是提供一种基于变焦测距的三维建模系统,旨在解决现有技术由于其技术原理本身的缺陷,即造成局部区域不能很好地获得图像深度信息,影响物体的三维重建的技术问题。
为实现上述目的,本发明提供了一种基于变焦测距的三维建模方法,包括:
子区域划分模块,用于将目标物体划分为若干子区域;
图像采集模块,用于变焦采集各个所述子区域图像;
变焦驱动模块,用于驱动所述图像采集模块连续变焦;
拍摄焦距采集模块,用于采集所述子区域的焦距或物距;
子区域正焦图像识别模块,用于根据对焦评价函数值获取所述子区域的正焦图像;其中,所述变焦评价函数值用于衡量所述子区域是否准确对焦,所述正焦图像为所述子区域准确对焦的图像;
三维重建模块,用于根据各个所述子区域的正焦图像和各个所述子区域的焦距或物距,并建立三维模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于锐马(福建)电气制造有限公司,未经锐马(福建)电气制造有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201610723110.X/2.html,转载请声明来源钻瓜专利网。