[发明专利]一种针对光场阵列相机的盲深度超分辨率计算成像方法在审
申请号: | 201711142221.2 | 申请日: | 2017-11-17 |
公开(公告)号: | CN107945110A | 公开(公告)日: | 2018-04-20 |
发明(设计)人: | 杨俊刚;王应谦;肖超;李骏;安玮 | 申请(专利权)人: | 杨俊刚;王应谦;肖超 |
主分类号: | G06T3/40 | 分类号: | G06T3/40;G06T5/50 |
代理公司: | 长沙正奇专利事务所有限责任公司43113 | 代理人: | 魏国先,王娟 |
地址: | 410000 湖*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 针对 阵列 相机 深度 分辨率 计算 成像 方法 | ||
技术领域
本发明涉及图像处理、超分辨重建、光场计算成像领域,特别是一种针对光场阵列相机的盲深度超分辨率计算成像方法。
背景技术
近几年来,基于光场和计算成像理论的光场相机成为了研究的热点。它通过采集现实世界的光场,在单次曝光中就可以获得当前场景的三维信息,通过对采集到的数据进行处理,可以实现拍照后重聚焦、场景深度估计以及三维重建等诸多传统相机无法实现的功能。光场相机有多种结构,其中阵列相机每一个成像单元相对独立而且分辨率较高,如果能够进一步采取其他方法继续提高其分辨率,便可以很大程度上提升光场成像的应用价值,促进光场相机的进一步发展。
为提高成像分辨率,主要有两个思路。从硬件角度提高分辨率难度较大,成本较高。光场阵列相机通过从不同视角对当前同一场景进行拍摄,可以获得当前场景的冗余信息,更适合于采用超分辨技术等软件方法来提高合成图像的分辨率。
传统的图像超分辨方法往往基于全图的一致性位移。在光场图像中,不同深度的物体对应阵列相机子图像中的位移是不同的。对于距离相机较近的物体,其视差较大,聚焦到此物体时需要对子图像的位移量也较大;而对于距离相机较远的物体,聚焦时所需要的位移也较小。针对光场图像这一特殊性质,学者们对传统超分辨方法做出了一些改进,形成了光场超分辨这一领域。
在光场超分辨中,绝大部分方法都需要基于场景的先验深度信息,并基于深度信息来获取子图像不同位置的位移值。计算较为复杂而且在一些深度信息复杂的场景中,超分辨的精度无法得到保证。
发明内容
本发明所要解决的技术问题是,针对现有技术不足,提供一种针对光场阵列相机的盲深度超分辨率计算成像方法,针对光场阵列相机子图像的深度性质,改进传统超分辨全局一致性位移的约束,在当前场景深度信息未知的前提下,对场景进行超分辨率计算成像。
为解决上述技术问题,本发明所采用的技术方案是:一种针对光场阵列相机的盲深度超分辨率计算成像方法,其特征在于,包括以下步骤:
1)将阵列相机获得的子图像进行计算聚焦,并且在计算聚焦的同时提高目标图像网格的分辨率,获得聚焦到某一深度的高分辨率图像的初始值;通过改变阵列相机子图像之间的位移值,获得聚焦到不同深度的当前场景的图像;
2)对应某个位移值,判断子图像之间相同位置像素的方差值,通过映射θ=exp{-0.1×V0.9},将方差值V转化为迭代过程中修正矩阵中对应位置的权值θ;
3)建立如下目标函数,采用最小化L2范数和TV正则:
Xi=xi+Pi
其中k=1,2,3,...,p代表图像帧数;xi为原始场景中第i层深度聚焦部分对应的向量;Pi为原始场景中第i层深度非聚焦部分对应的向量;Xi为xi与Pi的组合,对应着高分辨率的聚焦区域以及均匀模糊的非聚焦区域;yk代表低分辨率图像序列中第k帧图像向量;D表示下采样矩阵;H表示对应的模糊矩阵;Fi,k为对应于第k帧、第i层深度的位移矩阵;其中J(Xi)为正则化项,λ为正则化系数,有
式中Ω为图像空间,是图像x在点(u,v)沿水平和垂直方向上的一阶偏导数,δ为可调参数,是为了避免J(x)在xu=0、xv=0处不可微;
采用以下公式,使用梯度下降法求解超分辨问题:
式中,为第n次迭代后超分辨重建图像;β为步长因子;为修正后的第n次超分辨重建图像对应的梯度向量,其具体表达式如下:
式中,Θ为步骤2)中各个像素点修正权值θ组成的修正向量,符号代表两个同维向量之间对应元素相乘,结果仍为相同维度的向量。
通过计算当前点的梯度,沿梯度的反方向更新高分辨率图像的估计值,再计算新的估计值处的梯度,如此迭代,得到在聚焦区域具有超分辨效果,在非聚焦区域均匀模糊的一系列聚焦到不同深度的多聚焦高分辨率图像;
4)采用基于静态小波(SWT)分解的多聚焦图像融合方法对步骤3)得到的聚焦到不同深度的高分辨率图像进行融合。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杨俊刚;王应谦;肖超,未经杨俊刚;王应谦;肖超许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711142221.2/2.html,转载请声明来源钻瓜专利网。