[发明专利]基于LAB空间和多尺度特征金字塔的低照度图像增强方法在审
申请号: | 202310498419.3 | 申请日: | 2023-05-05 |
公开(公告)号: | CN116523787A | 公开(公告)日: | 2023-08-01 |
发明(设计)人: | 刘振丙;杨梦雨;路皓翔 | 申请(专利权)人: | 桂林电子科技大学 |
主分类号: | G06T5/00 | 分类号: | G06T5/00;G06N3/0464;G06N3/048;G06N3/08;G06T3/40 |
代理公司: | 珠海得全知识产权代理事务所(普通合伙) 44947 | 代理人: | 郑晨鸣 |
地址: | 541010 广西*** | 国省代码: | 广西;45 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 lab 空间 尺度 特征 金字塔 照度 图像 增强 方法 | ||
本发明涉及一种基于LAB空间和多尺度特征金字塔的低照度图像增强方法,包括以下步骤:将原始图像转换到LAB色彩模式,所述LAB色彩模式包括明度值、A通道值和B通道值,所述原始图像为三通道图像;基于原始图像的明度值,计算原始图像的光照注意力图,所述光照注意力图为单通道图像;将原始图像与所述光照注意力图按像素位置相乘,得到乘积图;将所述乘积图输入到膨胀卷积的全卷积神经网络,得到噪声注意力图,所述噪声注意力图为三通道图像;将原始图像、所述光照注意力图和所述噪声注意力图输入到多尺度特征金字塔网络,得到增强去噪图像。通过图像增强算法来恢复隐藏在黑暗区域的图像细节,提高图像可见度,从而改善图像质量。
技术领域
本发明属于计算机视觉和机器学习领域,特别涉及一种基于LAB空间和多尺度特征金字塔的低照度图像增强方法。
背景技术
互联网科技的迅速发展使得人们对图像、视频等视觉信息的要求越来越高,但图像成像质量往往会受到硬件设备、拍摄水平或周边环境(如天气、光照)等因素影响,尤其在光照不充足情况下,采集到的图像可能存在对比度低、噪声多等问题,这些问题很大程度上降低了图像的质量和价值,同时也影响了人们对图像的识别和理解能力,给需要高质量图像的行业和领域如医学图像、工业检测等带来了极大的挑战。
目前的图像增强算法大多是针对原始低照度图像进行整体增强,不可避免地存在一些问题。大多数低照度图像都存在着亮度不均匀的情况,如果按照统一的增强等级进行增强,很可能会出现过度曝光现象。除了部分极端黑暗图像,大多数低照度图像都存在亮度不均匀的问题。除了亮度因素之外,噪声对图像质量的影响也不容忽视。在增强图像亮度的过程中,不可避免也会放大原本隐藏在图像中的噪声。解决这个问题通常会采取的手段有:先增强图像、再去除噪声,或者先去除噪声、再增强图像。但前者在增强的过程中可能放大噪声,给后续去噪任务带来难度;而后者由于部分噪声与图像纹理结构类似,容易在去噪过程中丢失细节、产生模糊,导致增强后图像难以恢复出原本特征。
发明内容
本发明提供基于LAB空间和多尺度特征金字塔的低照度图像增强方法及装置,旨在至少解决现有技术中存在的技术问题之一。在处理低照度图像时,需要根据不同区域的亮度等级自适应进行增强,希望将黑暗区域增强到正常亮度水平,同时也要抑制较亮的区域避免过度曝光。对于图像噪声问题,希望通过将去噪与增强过程相结合的手段减少噪声对图像的影响,提升图像质量。本发明提出基于LAB空间和多尺度特征金字塔的低照度图像增强方法。
本发明的技术方案涉及一种基于LAB空间和多尺度特征金字塔的低照度图像增强方法及装置,所述方法包括以下步骤:
S100、将原始图像转换到LAB色彩模式,所述LAB色彩模式包括明度值、A通道值和B通道值,所述原始图像为三通道图像;
S200、基于原始图像的明度值,计算原始图像的光照注意力图,所述光照注意力图为单通道图像;
S300、将原始图像与所述光照注意力图按像素位置相乘,得到乘积图;
S400、将所述乘积图输入到膨胀卷积的全卷积神经网络,得到噪声注意力图,所述噪声注意力图为三通道图像;
S500、将原始图像、所述光照注意力图和所述噪声注意力图输入到多尺度特征金字塔网络,得到增强去噪图像。
进一步,所述光照注意力图为:
其中,L为原始图像中某一具体像素的明度值,min(L)为原始图像中所有像素明度值的最小值,max(L)为原始图像中所有像素明度值的最大值,LAM为原始图像的光照注意力图。
进一步,所述膨胀卷积的全卷积神经网络包括依次连接的第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层、第六卷积层、第七卷积层和第八卷积层;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于桂林电子科技大学,未经桂林电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310498419.3/2.html,转载请声明来源钻瓜专利网。