[发明专利]基于深度学习的视频去雾系统在审
申请号: | 201910808161.6 | 申请日: | 2019-08-29 |
公开(公告)号: | CN110544216A | 公开(公告)日: | 2019-12-06 |
发明(设计)人: | 张婷;赵杏 | 申请(专利权)人: | 北京理工大学 |
主分类号: | G06T5/00 | 分类号: | G06T5/00;G06T7/194;G06T3/40 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 100081 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 去雾 散射模型 视频 双三次插值算法 卷积神经网络 对视频图像 计算机视觉 图像数据集 硬件处理器 背景分割 辅助驾驶 交通视频 可移植性 去雾图像 视觉效果 视频处理 图像去雾 无人驾驶 实时性 数据集 透射率 嵌入 测试 学习 应用 | ||
1.基于深度学习的视频去雾系统,其特征在于包括以下步骤:
1)输入有雾视频,用前背景分割法对视频进行预处理;
2)采用双三次插值算法提高视频处理速度,实现视频的实时去雾;
3)在NYU2数据集上根据大气散射模型生成有雾图的方法得到有雾图像数据集用于训练和测试;
4)采用基于CNN的端到端去雾网络实现视频去雾,先通过K估计模块来估计K(x)的值,再经过清晰图像生成模块根据大气散射物理模型计算出清晰图像J(x);
5)图像融合,降噪处理,输出去雾视频。
2.按照权利要求1所述的基于深度学习的视频去雾系统,其特征在于:
步骤1)中前背景分割法由以下的方式确定:
本发明采用背景分离的方法,从视频序列中分离出前景和背景图像,分别进行去雾处理,最后再进行图像的融合。前背景的分离采用基于多帧视频平均建模算法,将视频中运动的物体看做是噪声,利用累加平均来消除噪声,得到视频的前景和背景信息,之后采用步骤4)的去雾算法进行去雾处理,最后再采用图像融合的方法对其进行融合。
3.按照权利要求1所述的基于深度学习的视频去雾系统,其特征在于:
步骤2)中采用双三次插值算法提高视频处理速度,设f(i,j)为点(i,j)对应的像素值,其中点A、B、C、D、E的坐标依次为(i-1,j-1)、(i-1,j+2)、(i+2,j+2)、(i+2,j-1)、(i+u,j+v),点E(i+u,j+v)的像素f(i+u,j+v)可以利用如下公式计算
f(i+u,j+v)=XYZ
上述公式中x、Y、Z的计算如下所示:
X=[S(1+v) S(v) S(1-v) S(2-v)]
Z=[S(1+u) S(u) S(1-u) S(2-u)]T
其中S(x)是用来拟合插值函数sin(x)/x的多项式。
4.按照权利要求1所述的基于深度学习的视频去雾系统,其特征在于:
步骤3)中合成有雾数据集基于大气散射物理模型I(x)=J(x)t(x)+A(1-t(x)),设置不同的大气光A,通过在[0.6,1.0]之间均匀地选择每个通道,并选择β∈{0.4,0.6,0.8,1.0,1.2,1.4,1.6},根据计算I(x),便可得到有雾图像数据集。
5.按照权利要求1所述的基于深度学习的视频去雾系统,其特征在于:
步骤4)采用的端到端网络包含K估计模块和清晰图像生成模块。本发明受AOD-Net的启发,将A和t(x)统一为一个公式,J(x)的计算公式可重写为:
J(x)=K(x)I(x)-K(x)+b
这样,和A都被整合到新的变量K(x)中,b是偏差,通常被设为1;K(x)依赖于I(x)。基于以上得出的J(x)与K(x)之间的计算公式,通过估计K(x)直接得到去雾图像。K估计模块用来估计K(x)的值,由五个卷积层构成,通过融合不同大小的卷积核形成多尺度特征。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910808161.6/1.html,转载请声明来源钻瓜专利网。