[发明专利]基于U-Net融合保留细节的图像去噪方法有效
申请号: | 201911387476.4 | 申请日: | 2019-12-27 |
公开(公告)号: | CN111145123B | 公开(公告)日: | 2022-06-14 |
发明(设计)人: | 牛玉贞;宋冰蕊;杨彦 | 申请(专利权)人: | 福州大学 |
主分类号: | G06T5/00 | 分类号: | G06T5/00;G06T5/50;G06N3/08;G06N3/04;G06K9/62;G06V10/80 |
代理公司: | 福州元创专利商标代理有限公司 35100 | 代理人: | 丘鸿超;蔡学俊 |
地址: | 350108 福建省福州市*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 net 融合 保留 细节 图像 方法 | ||
1.一种基于U-Net融合保留细节的图像去噪方法,其特征在于,包括以下步骤:
步骤A:以无噪声图像作为原始训练集,对原始训练集进行加入噪声的处理,获得噪声幅度为σi的噪声图像;分别设置两种不同的去噪参数进行去噪,获得对应两种不同去噪参数的初始去噪结果图像,其中一种去噪参数为σ,另一种去噪参数为缩小后的标准差σ′;
步骤B:分别将步骤A获得的两种不同去噪参数的初始去噪结果图像,以及原始训练集中的无噪声图像分成若干个大小为n×n的图像块,获得两种不同去噪参数的初始去噪结果图像块和无噪声图像块组成的图像块对训练集;
步骤C:使用步骤B获得的图像块对训练集,训练基于U-Net的图像融合深度网络,获得对应特定噪声幅度的基于U-Net图像融合模型;
步骤D:对于噪声幅度为σi的图像,首先获得对应步骤A的不同去噪参数的去噪结果,然后输入到步骤C训练好的基于U-Net图像融合模型中进行融合,获得最终的去噪结果;
所述步骤C具体包括以下步骤:
步骤C1:将步骤B获得的图像块对训练集随机分成若干个批次,每个批次包含N个图像块对;
步骤C2:将每个批次的训练图像块对分别输入到基于U-Net的图像融合深度网络,得到预测的融合图像,所述基于U-Net的图像融合深度网络由卷积操作,反卷积操作,带泄露线性整流函数,线性整流函数激活操作,批量标准化操作构成;
步骤C3:根据目标损失函数Loss,利用反向传播方法计算所述基于U-Net的图像融合深度网络中各参数的梯度,并利用随机梯度下降方法更新参数;
其中,所述目标损失函数Loss定义如下:
其中,N表示一个训练批次中包含的图像块对个数;表示第j个图像块对中的对应去噪参数σ的初始去噪结果中的图像块;表示第j个图像块对中的对应去噪参数σ′的初始去噪结果中的图像块;Ij为无噪声图像块;表示融合网络在权重ω时所得到的结果图;||·||2表示L2范数;·表示第j个图像块对的融合网络的输出与第j个图像块对对应的无噪声图像块的差值即在更新参数的过程中采用Adam优化方法;
步骤C4:以批次为单位重复执行步骤C2和步骤C3,直至步骤C3中计算得到的Loss值收敛到阈值T,保存网络参数,完成训练过程。
2.根据权利要求1所述的基于U-Net融合保留细节的图像去噪方法,其特征在于,所述步骤A中,对原始训练集进行加入不同幅度的噪声的处理,并以噪声标准差σ和缩小后的标准差σ′,分别作为去噪参数,采用基于深度残差学习的去噪网络进行去噪,获得不同去噪参数的初始去噪结果图像集合。
3.根据权利要求1所述的基于U-Net融合保留细节的图像去噪方法,其特征在于,所述步骤B具体包括以下步骤:
步骤B1:分别对两种不同去噪参数的初始去噪结果图像与原始训练集中的无噪声图像,每隔距离s进行取块,块的大小为n×n,获得初始图像块对训练集;
步骤B2:采用随机翻转方法对初始图像块对训练集进行数据增强,获得最终的图像块对训练集合。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于福州大学,未经福州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911387476.4/1.html,转载请声明来源钻瓜专利网。