[发明专利]基于双分支神经网络的单曝光高动态范围图像生成方法有效
申请号: | 201911314158.5 | 申请日: | 2019-12-19 |
公开(公告)号: | CN111105376B | 公开(公告)日: | 2022-08-02 |
发明(设计)人: | 霍永青;叶年进;李翰林;武畅 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06T5/00 | 分类号: | G06T5/00;G06T5/40;G06N3/08;G06N3/04 |
代理公司: | 北京正华智诚专利代理事务所(普通合伙) 11870 | 代理人: | 代维凡 |
地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 分支 神经网络 曝光 动态 范围 图像 生成 方法 | ||
本发明公开了一种基于双分支神经网络的单曝光高动态范围图像生成方法,将现实场景中捕获的单帧LDR图像通过带有双分支的神经网络后输出高曝光区域与低曝光区域拥有更高成像质量的HDR图像。本发明通过双分支神经网络模型的两个分支分别对单帧LDR图像的高曝光与低曝光区域进行处理,最终得到的HDR图像在高曝光有更自然的色彩以及更丰富的细节,且在低曝光区域的噪声也能被有效的抑制。
技术领域
本发明属于图像处理技术领域,具体涉及一种基于双分支神经网络的单曝光高动态范围 图像生成方法的设计。
背景技术
近年来,高动态范围(HDR)成像技术不仅受到了学术界的重视,也受到工业界广泛的关注,研究人员提出了许多获取高动态范围图像的方法。最常见的一种方法是利用捕获于同一个场景的多幅不同曝光的低动态范围(LDR)图像生成一帧高质量的高动态范围图像。然而,人们实际捕获的绝大多数图像往往只具有单次曝光,现实中存在海量的单曝光图像。因此,研究人员开始专注于研究从单帧低动态范围图像生成高动态范围图像的方法,并取得了一些进展。
从传统的方法来看,单曝光HDR图像生成简单来说是对单帧图像的亮度范围以特定方 法进行扩展拉伸,从而得到具有高对比度的HDR图像。单曝光HDR图像生成方法也可被分为两类,基于相机响应函数(Camera Response Function,CRF)的方法与基于反色调映射(Inverse Tone Mapping,ITM)的方法。第一类方法根据输入图像对相应的CRF进行估计,再通过CRF对原辐照域的像素值进行映射得到HDR图像。第二类方法是目前主流的 单帧HDR生成技术的主要方法,该方法通过对图像不同曝光区域进行分段映射或者使用特 定反色调映射算子进行处理,使得原LDR图像的动态范围得以扩展且能增强高曝光与低曝 光区域的细节信息,从而得到视觉效果更优的HDR图像。
随着深度学习的应用日渐深入和渗透,近年来,开始出现使用卷积神经网络生成HDR 图像的方法。深度网络不仅可以代替传统方法中各种复杂的算子进行LDR图像到HDR图像的非线性映射,还能改善传统方法泛化性不足、算法复杂难以通过硬件实现等缺点。对于基于单曝光的HDR图像生成方式而言,卷积神经网络通过提取并组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示,拥有强大的拟合能力。使用深度学习的方法对单帧图像高亮度区域和低亮度区域的细节信息进行增强或恢复估计,能够极大的还原出单帧LDR图像所对应的原始场景光照,且相对于众多传统的HDR 图像重建方法,在得到一个训练完成的深度网络后,其计算复杂度要小得多,具有更好的 实时性。
现有的大多数高动态范围图像生成方法都集中在仅对高亮度区域进行图像扩展,若图 像在低亮度区域因动态范围不足而质量得不到保证时,这往往无法增强或恢复出在图像暗 亮度区域本应可见的一些细节。
发明内容
本发明的目的是为了解决现有高动态范围图像生成方法存在的问题,提出了一种基于 双分支神经网络的单曝光高动态范围图像生成方法,既能同时对图像高亮度区域和低亮度 区域进行比特增强,又考虑到图像成像机制,具有高效性能。
本发明的技术方案为:基于双分支神经网络的单曝光高动态范围图像生成方法,包括 以下步骤:
S1、采集现有的HDR图像,构建HDR图像数据集。
S2、对HDR图像数据集中的HDR图像进行预处理,得到训练LDR图像。
S3、将训练LDR图像输入双分支神经网络模型,对双分支神经网络模型进行训练。
S4、当双分支神经网络模型收敛后,向双分支神经网络模型输入测试LDR图像,输出 得到HDR图像。
S5、将双分支神经网络模型嵌入到移动设备或普通的PC端上,对其输出的HDR图像进行后处理。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911314158.5/2.html,转载请声明来源钻瓜专利网。