[发明专利]基于深度神经网络的低照度彩色偏振图像增强方法有效
申请号: | 202010647281.5 | 申请日: | 2020-07-07 |
公开(公告)号: | CN111861914B | 公开(公告)日: | 2023-02-03 |
发明(设计)人: | 胡浩丰;林洋;刘铁根;李校博;程振洲;韩迎东 | 申请(专利权)人: | 天津大学 |
主分类号: | G06T5/00 | 分类号: | G06T5/00;G06T5/50;G06N3/08;G06N3/04 |
代理公司: | 天津市北洋有限责任专利代理事务所 12201 | 代理人: | 李素兰 |
地址: | 300072*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 神经网络 照度 彩色 偏振 图像 增强 方法 | ||
本发明公开了一种基于深度神经网络的低照度彩色偏振图像增强方法,将充足曝光的清晰彩色偏振图像和低照度的彩色偏振图像构建成图像数据集;对图像数据集中每一幅偏振图像进行预处理;将图像数据集拆分为训练集、验证集和测试集;构建用于低照度彩色偏振图像增强的深度神经网络,具体为构建依序连接的浅层特征提取模块、残差‑密集连接模块和特征融合模块,设计该深度神经网络的损失函数;得到训练完成的深度神经网络训练模型;将测试集放到训练好的深度神经网络训练模型进行测试,输出最终的图像增强结果。本发明充分将多维度的偏振参量用于图像增强,在极低照度下显著地降低图像噪声,提高图像对比度,并恢复彩色图像原有的色彩。
技术领域
本发明涉及偏振成像探测技术领域,特别涉及在低照度环境中基于深度神经网络的彩色偏振图像的增强方法。
背景技术
偏振成像技术在工业生产、军事国防等许多领域都有十分广泛的应用。然而,在低照度条件下的应用中,受到低亮度和低信噪比的影响,图片的质量会严重下降,不能够很好地满足实际生产应用的要求。目前关于偏振图像去噪、增强等技术的研究主要存在以下缺点:第一,偏振度、偏振角等偏振参量对于噪声非常敏感,在低照度环境中,偏振信号往往淹没在噪声里,现有的普通图像去噪与增强算法并不能很好的恢复。第二,传统的深度学习方法没有使用真实的低照度偏振图像作为数据集,而是简单的用数字图像处理的方法将正常曝光的图像降低亮度,以此来构建低照度偏振图像数据集,但真实的低照度偏振图像退化更复杂,噪声更大,仅通过降低亮度模拟真实的图像会导致算法在真实低照度场景受限。第三,现有的低照度增强方法应用于彩色图像时,会出现色彩失真的现象,增强后的图像色彩与实际色彩不符。
发明内容
为了克服现有技术的不足,本发明提出了一种基于深度神经网络的低照度彩色偏振图像增强方法,将偏振成像技术与深度学习技术相结合,充分利用偏振图像的偏振信息用于图像增强,在极低照度下仍能显著地降低图像噪声,提高图像对比度,并恢复图像的色彩和偏振信息。
为解决上述技术问题,本发明提出了一个在增量式学习算法下进行室内定位,结合图像处理技术提高定位实现高精度定位的方法。在两个典型的室内环境下构建并检测系统原型,充分验证了该方法的有效性。
本发明的目的通过以下技术方案来实现:
本发明的一种基于深度神经网络的低照度彩色偏振图像增强方法,该方法包括以下步骤:
步骤1、在充足照度的环境中调节好彩色偏振相机的感光度和曝光时间进行图像采集,将采集的彩色偏振图像作为清晰彩色偏振图并作标签,之后在镜头前加装2%衰减率的可见光中性衰减片,形成低照度环境,采集彩色偏振图片作为低照度彩色偏振图像;将充足曝光的清晰彩色偏振图像和低照度的彩色偏振图像构建成图像数据集;
步骤2、对图像数据集中每一幅偏振图像进行预处理:将步骤1中采集到的原偏振图像Iorig(x,y)根据像素点的位置(x,y)先拆分成颜色通道分别为红色、绿色、蓝色三幅颜色子图,再分别对每个颜色子图拆分成偏振方向分别为0°、45°、90°、135°的四幅偏振子图,然后合并成一个十二个通道的三维数组,最后裁剪为大小为64×64×12 的三维数组块,作为数据集;
步骤3、将经步骤2预处理的图像数据集按照3:1:1的比例拆分为训练集、验证集和测试集;
步骤4、构建用于低照度彩色偏振图像增强的深度神经网络,具体为构建依序连接的浅层特征提取模块、残差-密集连接模块和特征融合模块,三个模块的具体特征为:
浅层特征提取模块包括两层卷积层,卷积核大小均为3×3,卷积核的数量为64;
残差-密集连接模块包括卷积层、作为激活函数的线性修正单元函数、级联(Concat) 层、1×1卷积层和局部残差连接组成,各层之间采用密集连接的方式进行特征组合;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010647281.5/2.html,转载请声明来源钻瓜专利网。