[发明专利]基于可学习可微分矩阵逆及矩阵分解的图像恢复方法在审

专利信息
申请号: 202010960192.6 申请日: 2020-09-14
公开(公告)号: CN112132760A 公开(公告)日: 2020-12-25
发明(设计)人: 林宙辰;谢星宇;孔浩;吴建龙;刘光灿 申请(专利权)人: 北京大学
主分类号: G06T5/00 分类号: G06T5/00;G06N3/04;G06N3/08
代理公司: 北京万象新悦知识产权代理有限公司 11360 代理人: 黄凤茹
地址: 100871*** 国省代码: 北京;11
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 学习 微分 矩阵 分解 图像 恢复 方法
【权利要求书】:

1.一种基于可学习的可微分矩阵逆及矩阵分解的图像恢复方法,通过设计可学习的可微分矩阵逆模块LD-Minv、可学习的可微分奇异值分解模块D-SVD和基于学习的近邻算子,对输入的待恢复图像进行图像恢复,输出清晰图像;包括:

S1)通过设计可学习的可微分矩阵逆模块LD-Minv、可学习的可微分奇异值分解模块D-SVD和基于学习的近邻算子,构建可学习可微分图像恢复神经网络模型;包括步骤1)-步骤10):

1)将单张图像向量化成一个d维向量,图像恢复过程表示为:其中是最终可能恢复出的图像;为输入观测图像,即待恢复的图像;是给定的线性变换算子;是随机噪声;

将图像恢复过程转化为对进行优化,其中,f(·)表示当前x的拟合程度;g(·)是基于先验信息添加的正则项;

2)引入辅助变量并将对进行优化转换成式(3):

其中,是依据上下文指定的线性或者非线性变换算子;

3)初始化x=x0,z=z0,令x0=y,并引入拉格朗日乘子项初始化为全0向量;

4)选取增广项系数β>0;

5)选取关于函数f(·)的近端算子proxαf(·)中的惩罚系数α>0;设定可学习可微分的算子将其初始化为恒等映射记近端算子输入为a,近端算子输出为b;利用基于学习的近邻算子方法更新辅助变量z,具体执行如下操作:

5a)计算关于f(·)的近端算子输入

5b)计算关于f(·)的近端算子输出b=proxαf(a),其中:

5c)通过z=b更新辅助变量z;

6)选取关于函数g(·)的近端算子proxγg(·)中的惩罚系数γ>0,利用基于学习的近邻算子更新变量x;具体执行如下操作:

6a)计算关于g(·)的近端算子输入

其中,是另一个可学习可微分的算子,初始化为的伴随映射

6b)计算关于g(·)的近端算子输出其中:

6c)通过更新变量x;

7)若步骤5b)、6b)中的近端算子proxγg(·)、proxαf(·)输出计算中需要进行矩阵逆运算,则给定正整数K和L,使用式(6)表示的LD-Minv模块:

LD-Minv模块是一个K层神经网络,每一层为一个L阶矩阵多项式,共包含K×L个可学参数;其中,L指的是神经网络每一层的矩阵多项式的阶数;A是需要执行矩阵逆操作的矩阵,下标0≤k≤K表示神经网络的当前层数,是可学习的参数;对Xk进行初始化,即指的是矩阵A的最大奇异值;

8)若步骤5b)、6b)中的近端算子proxγg(·)、proxαf(·)输出计算中需要进行SVD运算,则使用步骤8a)至步骤8j)中定义的Ksvd层神经网络;初始化奇异值向量矩阵U=U0,V=V0,其中U0,V0为任意满足条件的矩阵,I是合适维度的恒等矩阵;

Ksvd层神经网络的每一层均执行如下步骤:

8a)假定需要进行奇异值分解的矩阵为A,计算得到训练损失函数相对于U的梯度矩阵GU

8b)计算梯度矩阵GU在施蒂费尔Stiefel流形上的投影PU

8c)计算步长

8d)实例化步骤7)中定义的LD-Minv模块,记为LD-MinvU(·),计算矩阵的近似逆HU

8e)根据HU更新U;

8f)计算得到训练损失函数相对于V梯度矩阵G;

8g)计算得到梯度矩阵GV在Stiefel流形上的投影矩阵PV

8h)计算步长

8i)实例化LD-Minv模块LD-MinvV(·),计算得到矩阵的近似逆HV

8j)根据HV更新V:

9)更新β为步骤4)选取的增广项系数;

10)重复步骤4)-7)N次,构建得到N层神经网络,包含:多个LD-Minv模块,多个D-SVD模块及2N个可学习近端算子,即得到可学习可微分的图像恢复神经网络模型;

S2)对可学习可微分的图像恢复神经网络模型中可学习的模块进行训练,包括LD-Minv模块、D-SVD模块以及可学习近端算子;包括步骤a)-d):

a)训练LD-Minv模块:

固定可学模块D-SVD及可学习近端算子中可学的参数,收集LD-Minv实例的所有输入组成训练数据,即将需要进行矩阵逆转换的所有矩阵记为训练数据,设训练数据的数量为nMinv;基于训练数据,用任意一阶无约束梯度算法训练LD-Minv模块,其最小化目标即训练损失函数定义如下:

其中,C是LD-Minv实例中所有的可学参数,Ai表示的是第i个训练数据,X{k,i}指的是LD-Minv实例在第i个训练数据上第k层的输出;

b)训练D-SVD模块:

固定可学模块LD-Minv和可学习的近端算子中可学的参数,收集D-SVD实例的所有输入组成训练数据,将需要进行奇异值分解的所有矩阵记为训练数据,设训练数据数量为nsvd;基于训练数据,用任意一阶无约束梯度算法训练D-SVD模块,最小化目标即训练损失函数定义如下:

其中,t是该实例中所有的可学参数,Ai表示的是第i个训练数据,Uk,i,Vk,i指的是D-SVD实例在第i个训练数据上第k层的输出;

c)训练可学习的近端算子:

固定可学模块LD-Minv及D-SVD中可学的参数,收集步骤1)中所有输入组成训练数据,将需要进行图像恢复的所有图像数据记为训练数据,设数量为n;用任意一阶无约束梯度算法训练可学近端算子模块,最小化目标即训练损失函数定义如下:

其中,是2N个可学习近端算子实例中所有的可学参数,yi表示的是第i个待恢复图像,xk,i指的是可学习近端算子实例在第i个训练数据上第k层的输出;

d)重复训练步骤a)-c)T次,T>0,得到训练好的可学习可微分的图像恢复神经网络模型;

S3)将观测图像输入训练好的可学习可微分的图像恢复神经网络模型,网络模型的输出层即输出恢复好的清晰图像;

通过上述步骤,实现基于可学习的可微分矩阵逆及矩阵分解的图像恢复方法。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京大学,未经北京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202010960192.6/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top