[发明专利]一种基于深度学习的红外图像超分辨率重建方法有效
申请号: | 202010734945.1 | 申请日: | 2020-07-28 |
公开(公告)号: | CN112001843B | 公开(公告)日: | 2022-09-06 |
发明(设计)人: | 陈钱;展梦灵 | 申请(专利权)人: | 南京理工大学 |
主分类号: | G06T3/40 | 分类号: | G06T3/40;G06T5/00;G06T11/00;G06N3/04;G06N3/08 |
代理公司: | 南京理工大学专利中心 32203 | 代理人: | 朱沉雁 |
地址: | 210094 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 红外 图像 分辨率 重建 方法 | ||
本发明公开了一种基于深度学习的红外图像超分辨率重建方法,首先将红外视频转化成连续的多帧红外图像并进行红外图像增强预处理,获得对比度更高、视觉效果更好的红外图像;同时建立基于深度学习的图像超分辨率重建算法模型;基于该模型,利用可见光数据集进行模型训练得到高低分辨率图像之间的关系模型;将红外图像输入该模型进行超分辨率重建,获得高分辨率的红外图像;最后整合红外图像得到信息更丰富的红外图像视频。本发明在红外图像的质量优化上具有十分优秀的效果,同时可以快速地将低质量的红外视频转换成高质量的视频,在军事、医学、安防等领域具有十分重要的作用。
技术领域
本发明属于图像处理领域,具体涉及一种基于深度学习的红外图像超分辨率重建方法。
背景技术
随着红外成像技术的不断发展,红外图像在军事、医学、公共安全等领域具有十分重要的作用。然而,红外图像相比可见光图像具有对比度低、细节信息不足、边缘模糊等特点,在实际应用中仍然存在很多问题。因此,对红外图像成像质量的优化成为了图像处理领域十分重要的分支。但是,直接通过红外成像设备获得高质量图片的过程往往存在很多干扰,对成像设备的要求也很高,这也意味着更高的硬件成本。所以,将图像超分辨率方法应用到红外图像上、对红外图像进行超分辨率重建从而获得更高的成像质量将是一个必要手段。
近几年,在可见光领域,已有大量科研工作者基于深度学习提出了许多超分辨率图像的算法,往往可以获得较好的成像结果。Dong C.et al.在2014年首次提出基于深度学习的图像超分辨率算法SRCNN,2015年何凯明提出了残差网络结构ResNet,解决了网络结构较深时无法训练的问题。这些算法提出将采集到的高分辨率图像进行压缩获得低分辨率图像,再进行图像重建,最后将获得的超分辨率图像与原图像进行比较,从而了解算法的图像重建能力。但是,基于红外图像本身分辨率较低、细节信息不足的特点,利用获得的红外图像进行压缩将进一步减少图像中的有用信息,不利于图像的重建;同时,目前并不存在相对权威的红外标准数据集,所以,很难利用红外图像数据集建立高低分辨率图像之间的模型。
发明内容
本发明的目的在于提供一种基于深度学习的红外图像超分辨率重建方法,解决红外图像本身具有的对比度低、分辨率低、视觉效果差等问题。
实现本发明目的的技术解决方案为:一种基于深度学习的红外图像超分辨率重建方法,步骤如下:
步骤1、采集一段红外视频,将其分为若干帧红外图像,转入步骤2;同时基于通道注意力机制残差学习图像超分辨率重建算法,建立低分辨率图像与高分辨率图像之间的关系模型,转入步骤3;
步骤2、将若干帧红外图像分别进行图像增强预处理,获得各帧对应的增强图像R(x,y),转入步骤4;
步骤3、利用可见光数据集学习低分辨率图像与高分辨率图像之间的关系模型,获得图像超分辨率重建模型,转入步骤4;
步骤4、将各帧对应的增强图像R(x,y)依次输入图像超分辨率重建模型,进行超分辨率重建,从而得到分辨率更高的红外图像,转入步骤5;
步骤5、将各帧重建后的红外图像进行整合输出,得到信息更为丰富的红外图像视频。
本发明与现有技术相比,其显著优点在于:
1)本发明基于深度学习的思想,利用可见光数据集进行高低分辨率图像之间的模型训练,利用该模型进行红外图像的超分辨率重建,大大降低了对红外成像设备的成像技术要求;2)本发明通过对红外视频中的每一帧图像进行处理,可以快速获得成像质量更佳的红外视频,利于监测和追踪;3)本发明的方法对夜视红外图像也同样具有较高的图像信息识别能力;4)本发明的方法数据可靠,易于实施,操作简单。
附图说明
图1是本发明一种基于深度学习的红外图像超分辨率重建方法的流程图。
图2是本发明基于通道注意力机制的残差学习图像超分辨率重建算法示意图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京理工大学,未经南京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010734945.1/2.html,转载请声明来源钻瓜专利网。