[发明专利]基于邻域回归的超分辨率方法在审
申请号: | 201910326354.8 | 申请日: | 2019-04-12 |
公开(公告)号: | CN110097503A | 公开(公告)日: | 2019-08-06 |
发明(设计)人: | 端木春江;沈碧婷 | 申请(专利权)人: | 浙江师范大学 |
主分类号: | G06T3/40 | 分类号: | G06T3/40;G06K9/62 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 321004 浙江省金*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 回归 超分辨率 训练字典 重建图像 邻域 字典 超分辨率重建 计算投影矩阵 计算复杂度 单幅图像 局部约束 训练阶段 原子分配 字典训练 字典原子 正则化 锚定 引入 灵活 | ||
为了提高单幅图像超分辨率方法中重建图像的质量,提出了利用训练字典相互不一致性和局部正则化锚定邻域回归的超分辨率重建方法。在训练阶段,把字典原子和原子之间的相互一致性引入到字典训练的过程中,使得到的训练原子字典间尽可能相互独立,获得更大的训练字典中的相互不一致性。然后,把局部约束回归的方法加入到岭回归过程,给字典中的每个原子分配不同程度的自由度,更灵活地计算投影矩阵。实验表明,在差不多的计算复杂度下,所提出的方法的性能好于目前性能最优的ANR方法,可以进一步提高重建图像的质量。
技术领域
本发明提出了一种数字图像处理技术领域中的基于单幅图像的图像超分辨率方法,使用该方法,可以依靠训练阶段得到的字典,对输入的一幅低分辨率的图像获得一幅高分辨率的图像。该方法可以被广泛应用在视频监控、卫星遥感、医学图像、生物特征识别等领域。
背景技术
经典的图像超分辨率方法可以分为以下几类:1.基于插值的方法、2.基于重建的方法、和3.基于学习的方法。在第一种方法中,利用未知像素值周围的已知像素值来估计和预测此未知像素值的大小,其被称为插值的方法。在第二类方法中,利用大量的训练图像,在训练阶段对高分辨率的原始图像进行滤波和下采样处理,得到对应的低分辨率图像。然后,对训练阶段的高分辨率图像和低分辨率的图像进行分块,获得高分辨率的图像块和低分辨率的图像块,并存储每一对高分辨率图像块和低分辨率图像块。对于要进行超分辨率放大的图像块,首先对其进行分块,获得低分辨率的图像块,然后在训练过程获得的低分辨率图像块中寻找和其最接近的几个图像块。然后,利用训练阶段获得的和这些低分辨率块所对应的高分辨率块的加权平均来获得放大后的高分辨率块。对要放大的图像上的每个低分辨率图像块都进行以上这些操作之后,可以获得很多高分辨率的图像块。对在这些高分辨率的图像块的重叠区域使用平均的方法可以获得一幅高分辨率的图像。这种方法被称为基于样例的方法。在第三类方法中,利用训练阶段的高分辨率图像,通过滤波和下采样处理获得对应的低分辨率的图像。然后,利用稀疏表示的方法获得表示低分辨率图像块的稀疏字典和表示高分辨率图像块的稀疏字典。对于在线的图像放大阶段和低分辨率图像上提取的图像块,首先利用训练好的低分辨率的字典,来获得其稀疏表示的系数。然后,根据高分辨率图像块和低分辨率图像块在同一个流型上的假设,利用高分辨率的字典和稀疏表示的系数相乘,获得高分辨率的图像块。对低分辨率图像中所有的图像块,都进行了以上处理后,可以通过获得的高分辨率的图像块重建出一幅高分辨率的图像。这类方法被称为稀疏表示的方法。在第四类方法中,首先通过训练图像集合中的高分辨率图像块和所对应的低分辨率的图像块来训练卷积神经网络。当训练好这个网络之后,对于要放大的图像块,利用这个网络可以得到高分辨率的图像块。对低分辨率图像中的所有低分辨率图像块都进行了此操作后,可以得到对应的所有的高分辨率的图像块。然后,利用图像块重叠区域平均的方法,可以得到一幅高分辨率图像。这类方法被称为基于深度学习的方法。
发明内容
所提出的方法与传统的超分辨率方法不同之处在于以下两点:1.利用相互不一致性来训练低分辨率字典,把局部正则化项加入到目标函数中,使得字典中不同的原子有不同程度的自由度,字典原子之间的相关性变小,分布更广,字典对低分辨率的图像块矢量的表示更准确。2.在所提出的方法的求解投影矩阵的过程中,引入局部性的先验信息,可以获得更优化的投影矩阵。所求得的高分辨率图像块的细节部分更丰富和准确。
1.所提出的求解低分辨率字典的方法
在所提出的方法的训练阶段中,采用求解以下问题的方法来求解低分辨率的字典,使其表示能力更强。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江师范大学,未经浙江师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910326354.8/2.html,转载请声明来源钻瓜专利网。