[发明专利]一种多源图像高效融合方法、系统及介质有效
申请号: | 202310614277.2 | 申请日: | 2023-05-29 |
公开(公告)号: | CN116342455B | 公开(公告)日: | 2023-08-08 |
发明(设计)人: | 李树涛;刘锦洋;佃仁伟 | 申请(专利权)人: | 湖南大学 |
主分类号: | G06T5/50 | 分类号: | G06T5/50;G06V10/74;G06V10/774;G06V10/764;G06V10/82;G06N3/0464 |
代理公司: | 湖南兆弘专利事务所(普通合伙) 43008 | 代理人: | 谭武艺 |
地址: | 410082 湖*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 图像 高效 融合 方法 系统 介质 | ||
本发明公开了一种多源图像高效融合方法、系统及介质,本发明方法包括针对由两个特征提取网络D和一个特征重建网络F构成的多源图像高效融合网络进行下述训练:将样本对的源图像与分别输入特征提取网络D提取高维图像特征与,拼接为融合特征再经特征融合网络F生成融合图像;将与分别输入至中间信息层Lsubgt;i/subgt;生成权重与以引导计算根据权重融合图像与权重源图像之间的相似性设计的损失函数Loss的值以完成特征提取网络D和特征融合网络F的训练。本发明具有融合速度快、视觉效果好、纹理信息明显、结构保持度高、普适性强的优点。
技术领域
本发明涉及多源图像高效融合技术领域,具体涉及一种多源图像高效融合方法、系统及介质。
背景技术
多源图像高效融合旨在将不同输入源图像的优势信息快速整合于一张图像中,以提高图像判读、目标识别、场景分类等后续工作的效率。该类型的融合在视频监控、伪装分析、摄影等方面都存在大量应用。具体来说,这种图像融合是主要包含多模态融合、多聚焦融合、多曝光融合等不同种类的融合。
通常该类型的融合被分类两大类,即传统图像融合与非传统图像融合。传统的像素级统一图像融合几乎与手工设计的图像特征提取、融合、重建三个步骤不可分割。最常见的特征提取方法包括稀疏表示(SR)、多尺度变换(MST)、字典学习等。融合规则包括最大值、最小值、加法、L1范数(l1-norm)等。传统的像素级统一图像融合方法严重依赖专家知识来提取特征和制定融合策略,这不仅导致模型的泛化能力较差,而且严重限制了融合效果。此外,该方法通常需要根据融合类型进行参数调整,且参数调整过程复杂、耗时。近年来以卷积神经网络为主流的非传统图像融合在融合性能上取得了重大突破,其根据网络类型可大致分为基于损失函数控制、基于先验信息控制、基于人工算子等网络类型。以U2Fusion(统一无监督图像融合网络,参见:Xu, Han, et al. U2Fusion: A unified unsupervisedimage fusion network. IEEE Transactions on Pattern Analysis and MachineIntelligence 44.1 (2020): 502-518.)、FusionDN(图像融合统一密集连接网络,参见:Xu, Han, et al. Fusiondn: A unified densely connected network for imagefusion. Proceedings of the AAAI Conference on Artificial Intelligence. Vol.34. No. 07. 2020.)、PMGI(基于梯度和强度比例保持的快速统一图像融合网络,参见:Zhang, Hao, et al. Rethinking the image fusion: A fast unified image fusionnetwork based on proportional maintenance of gradient and intensity.Proceedings of the AAAI Conference on Artificial Intelligence. Vol. 34. No.07. 2020.)为代表的基于损失函数控制的网络,它们通过计算源图像与融合结果之间的相似性来实现图像融合。此外,还通常根据任务或源图像设定损失函数的权重。具体来说,FusionDN使用手工算子来确定权重,而U2Fusion通过使用预先训练好的特征提取网络来确定权重来实现更准确的融合,PMGI则通过手工设计不同的强度损失函数和梯度损失函数的权重来适应不同的融合任务。基于先验信息控制的代表性方法是IFCNN(基于卷积神经网络的通用图像融合框架,参见:Zhang, Yu, et al. IFCNN: A general image fusionframework based on convolutional neural network. Information Fusion 54(2020): 99-118.),IFCNN利用多焦源图像及其地面真值(Ground Truth)实现图像融合,因此融合网络可以揭示源图像和地面真值(Ground Truth)之间的关系。基于人工算子的方法首先在DeepFuse(用于与极端曝光图像对进行曝光融合的深度无监督网络,参见:RamPrabhakar, K., V. Sai Srikar, and R. Venkatesh Babu. Deepfuse: A deepunsupervised approach for exposure fusion with extreme exposure image pairs.
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖南大学,未经湖南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310614277.2/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种用于园区的物联网大数据管理系统
- 下一篇:一种站点的配置方法
- 彩色图像和单色图像的图像处理
- 图像编码/图像解码方法以及图像编码/图像解码装置
- 图像处理装置、图像形成装置、图像读取装置、图像处理方法
- 图像解密方法、图像加密方法、图像解密装置、图像加密装置、图像解密程序以及图像加密程序
- 图像解密方法、图像加密方法、图像解密装置、图像加密装置、图像解密程序以及图像加密程序
- 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序以及图像解码程序
- 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序、以及图像解码程序
- 图像形成设备、图像形成系统和图像形成方法
- 图像编码装置、图像编码方法、图像编码程序、图像解码装置、图像解码方法及图像解码程序
- 图像编码装置、图像编码方法、图像编码程序、图像解码装置、图像解码方法及图像解码程序