[发明专利]一种基于深度学习的无监督图像融合方法有效
申请号: | 201910137041.8 | 申请日: | 2019-02-25 |
公开(公告)号: | CN109919887B | 公开(公告)日: | 2021-06-18 |
发明(设计)人: | 李阳;王继霄;苗壮;王家宝;张睿;卢继荣 | 申请(专利权)人: | 中国人民解放军陆军工程大学 |
主分类号: | G06T5/50 | 分类号: | G06T5/50 |
代理公司: | 南京钟山专利代理有限公司 32252 | 代理人: | 上官凤栖 |
地址: | 210007 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 监督 图像 融合 方法 | ||
1.一种基于深度学习的无监督图像融合方法,其特征在于,包括如下步骤:
步骤S1、获取红外和可见光图像,并利用计算机对图像进行预处理,构建一个用于训练图像融合网络的数据集,该数据集中包含成对的红外和可见光图像;
步骤S2、构造一个轻量级深度卷积神经网络,该深度卷积神经网络可以实现将输入的红外和可见光图像进行加权融合和解码还原;轻量级深度卷积神经网络由两部分单元构成,分别为编码单元和解码单元,编码单元和解码单元均依次由单点卷积层、单层卷积层和单点卷积层构成,单点卷积层和单层卷积层之间加入批量归一化与非线性激活函数;给定一对红外和可见光图像,经过该编码单元后输出融合图像;给定融合图像,经过该解码单元后输出对应的一对红外和可见光图像;
步骤S3、构造一个混合损失函数,该混合损失函数包括图像的生成损失和结构损失,利用混合损失函数训练深度卷积神经网络,获得深度图像融合网络模型参数;
步骤S4、深度图像融合网络模型学习完毕后,去掉解码网络,利用该网络输入红外和可见光图像,网络的输出即为融合之后的图像。
2.如权利要求1所述的一种基于深度学习的无监督图像融合方法,其特征在于:步骤S1中,获取的红外和可见光图像是成对的,是在同一机位和同一时刻拍摄的,不同数据源获取的多源图像无需缩放至同一尺度大小。
3.如权利要求1所述的一种基于深度学习的无监督图像融合方法,其特征在于:步骤S1中,构建训练数据集时,当数据集规模包含预设数量的多源图像时,停止收集数据。
4.如权利要求1所述的一种基于深度学习的无监督图像融合方法,其特征在于:步骤S3具体包括:
构建生成损失,该损失Lp为:Lp=||O-I||2,其中O表示输出的红外和可见光图像,I表示输入的红外和可见光图像;
构建结构损失,即图像融合后和原输入的红外和可见光图像之间的SSIM差异损失,该损失Lssim为:Lssim=1-SSIM(O,I),其中SSIM表示结构相似性计算函数;
构建优化目标函数,该优化目标函数为混合损失函数:L=λLssim+Lp,其中λ为比例系数;
利用反向传播算法,求解目标函数关于系数的偏导数,同时对深度卷积神经网络各层参数利用随机梯度下降进行参数更新学习。
5.如权利要求1所述的一种基于深度学习的无监督图像融合方法,其特征在于:步骤S4中,模型学习得到模型参数后,直接去掉网络中的解码单元;通过输入任意一对红外和可见光图像,网络对输入图像进行计算,输出融合图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军陆军工程大学,未经中国人民解放军陆军工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910137041.8/1.html,转载请声明来源钻瓜专利网。
- 上一篇:芯片电连接缺陷的检测方法
- 下一篇:电子元件