[发明专利]基于可学习可微分矩阵逆及矩阵分解的图像恢复方法在审
申请号: | 202010960192.6 | 申请日: | 2020-09-14 |
公开(公告)号: | CN112132760A | 公开(公告)日: | 2020-12-25 |
发明(设计)人: | 林宙辰;谢星宇;孔浩;吴建龙;刘光灿 | 申请(专利权)人: | 北京大学 |
主分类号: | G06T5/00 | 分类号: | G06T5/00;G06N3/04;G06N3/08 |
代理公司: | 北京万象新悦知识产权代理有限公司 11360 | 代理人: | 黄凤茹 |
地址: | 100871*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 学习 微分 矩阵 分解 图像 恢复 方法 | ||
1.一种基于可学习的可微分矩阵逆及矩阵分解的图像恢复方法,通过设计可学习的可微分矩阵逆模块LD-Minv、可学习的可微分奇异值分解模块D-SVD和基于学习的近邻算子,对输入的待恢复图像进行图像恢复,输出清晰图像;包括:
S1)通过设计可学习的可微分矩阵逆模块LD-Minv、可学习的可微分奇异值分解模块D-SVD和基于学习的近邻算子,构建可学习可微分图像恢复神经网络模型;包括步骤1)-步骤10):
1)将单张图像向量化成一个d维向量,图像恢复过程表示为:其中是最终可能恢复出的图像;为输入观测图像,即待恢复的图像;是给定的线性变换算子;是随机噪声;
将图像恢复过程转化为对进行优化,其中,f(·)表示当前x的拟合程度;g(·)是基于先验信息添加的正则项;
2)引入辅助变量并将对进行优化转换成式(3):
其中,是依据上下文指定的线性或者非线性变换算子;
3)初始化x=x0,z=z0,令x0=y,并引入拉格朗日乘子项初始化为全0向量;
4)选取增广项系数β>0;
5)选取关于函数f(·)的近端算子proxαf(·)中的惩罚系数α>0;设定可学习可微分的算子将其初始化为恒等映射记近端算子输入为a,近端算子输出为b;利用基于学习的近邻算子方法更新辅助变量z,具体执行如下操作:
5a)计算关于f(·)的近端算子输入
5b)计算关于f(·)的近端算子输出b=proxαf(a),其中:
5c)通过z=b更新辅助变量z;
6)选取关于函数g(·)的近端算子proxγg(·)中的惩罚系数γ>0,利用基于学习的近邻算子更新变量x;具体执行如下操作:
6a)计算关于g(·)的近端算子输入
其中,是另一个可学习可微分的算子,初始化为的伴随映射
6b)计算关于g(·)的近端算子输出其中:
6c)通过更新变量x;
7)若步骤5b)、6b)中的近端算子proxγg(·)、proxαf(·)输出计算中需要进行矩阵逆运算,则给定正整数K和L,使用式(6)表示的LD-Minv模块:
LD-Minv模块是一个K层神经网络,每一层为一个L阶矩阵多项式,共包含K×L个可学参数;其中,L指的是神经网络每一层的矩阵多项式的阶数;A是需要执行矩阵逆操作的矩阵,下标0≤k≤K表示神经网络的当前层数,是可学习的参数;对Xk进行初始化,即指的是矩阵A的最大奇异值;
8)若步骤5b)、6b)中的近端算子proxγg(·)、proxαf(·)输出计算中需要进行SVD运算,则使用步骤8a)至步骤8j)中定义的Ksvd层神经网络;初始化奇异值向量矩阵U=U0,V=V0,其中U0,V0为任意满足条件的矩阵,I是合适维度的恒等矩阵;
Ksvd层神经网络的每一层均执行如下步骤:
8a)假定需要进行奇异值分解的矩阵为A,计算得到训练损失函数相对于U的梯度矩阵GU;
8b)计算梯度矩阵GU在施蒂费尔Stiefel流形上的投影PU;
8c)计算步长
8d)实例化步骤7)中定义的LD-Minv模块,记为LD-MinvU(·),计算矩阵的近似逆HU;
8e)根据HU更新U;
8f)计算得到训练损失函数相对于V梯度矩阵G;
8g)计算得到梯度矩阵GV在Stiefel流形上的投影矩阵PV;
8h)计算步长
8i)实例化LD-Minv模块LD-MinvV(·),计算得到矩阵的近似逆HV;
8j)根据HV更新V:
9)更新β为步骤4)选取的增广项系数;
10)重复步骤4)-7)N次,构建得到N层神经网络,包含:多个LD-Minv模块,多个D-SVD模块及2N个可学习近端算子,即得到可学习可微分的图像恢复神经网络模型;
S2)对可学习可微分的图像恢复神经网络模型中可学习的模块进行训练,包括LD-Minv模块、D-SVD模块以及可学习近端算子;包括步骤a)-d):
a)训练LD-Minv模块:
固定可学模块D-SVD及可学习近端算子中可学的参数,收集LD-Minv实例的所有输入组成训练数据,即将需要进行矩阵逆转换的所有矩阵记为训练数据,设训练数据的数量为nMinv;基于训练数据,用任意一阶无约束梯度算法训练LD-Minv模块,其最小化目标即训练损失函数定义如下:
其中,C是LD-Minv实例中所有的可学参数,Ai表示的是第i个训练数据,X{k,i}指的是LD-Minv实例在第i个训练数据上第k层的输出;
b)训练D-SVD模块:
固定可学模块LD-Minv和可学习的近端算子中可学的参数,收集D-SVD实例的所有输入组成训练数据,将需要进行奇异值分解的所有矩阵记为训练数据,设训练数据数量为nsvd;基于训练数据,用任意一阶无约束梯度算法训练D-SVD模块,最小化目标即训练损失函数定义如下:
其中,t是该实例中所有的可学参数,Ai表示的是第i个训练数据,Uk,i,Vk,i指的是D-SVD实例在第i个训练数据上第k层的输出;
c)训练可学习的近端算子:
固定可学模块LD-Minv及D-SVD中可学的参数,收集步骤1)中所有输入组成训练数据,将需要进行图像恢复的所有图像数据记为训练数据,设数量为n;用任意一阶无约束梯度算法训练可学近端算子模块,最小化目标即训练损失函数定义如下:
其中,是2N个可学习近端算子实例中所有的可学参数,yi表示的是第i个待恢复图像,xk,i指的是可学习近端算子实例在第i个训练数据上第k层的输出;
d)重复训练步骤a)-c)T次,T>0,得到训练好的可学习可微分的图像恢复神经网络模型;
S3)将观测图像输入训练好的可学习可微分的图像恢复神经网络模型,网络模型的输出层即输出恢复好的清晰图像;
通过上述步骤,实现基于可学习的可微分矩阵逆及矩阵分解的图像恢复方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京大学,未经北京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010960192.6/1.html,转载请声明来源钻瓜专利网。