[发明专利]用于生成图像超分辨率模型的方法和装置在审
申请号: | 201910086001.5 | 申请日: | 2019-01-29 |
公开(公告)号: | CN109872276A | 公开(公告)日: | 2019-06-11 |
发明(设计)人: | 李可;姜宇宁;李磊 | 申请(专利权)人: | 北京字节跳动网络技术有限公司 |
主分类号: | G06T3/40 | 分类号: | G06T3/40;G06N3/08 |
代理公司: | 北京英赛嘉华知识产权代理有限责任公司 11204 | 代理人: | 王达佐;马晓亚 |
地址: | 100041 北京市石景山区*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 预设 大分辨率图像 网络 级联 图像超分辨率 训练样本集合 方法和装置 超分辨率 生成图像 训练样本 样本图像 样本 超分辨率图像 机器学习 模型生成 网络确定 网络输出 第一级 对抗 分辨率 | ||
本公开的实施例公开了用于生成图像超分辨率模型的方法和装置。该方法的一具体实施方式包括:获取训练样本集合,其中,训练样本包括预设分辨率的初始样本图像和预设数量个样本大分辨率图像;获取初始生成对抗网络;利用机器学习方法,将训练样本集合中的训练样本包括的初始样本图像作为预设数量个级联的生成网络中的第一级生成网络的输入,以及对于预设数量个级联的生成网络中的生成网络,将该生成网络输出的大分辨率图像与样本大分辨率图像作为对应的判别网络的输入,对初始生成对抗网络进行训练,将训练后的预设数量个级联的生成网络确定为图像超分辨率模型。该实施方式有助于提高利用图像超分辨率模型生成超分辨率图像的清晰度。
技术领域
本公开的实施例涉及计算机技术领域,具体涉及用于生成图像超分辨率模型的方法和装置。
背景技术
图像超分辨率是指由一幅低分辨率图像或恢复出高分辨率图像。图像超分辨率技术分为超分辨率复原和超分辨率重建。目前,图像超分辨率研究可分为三个主要范畴:基于插值、基于重建和基于机器学习的方法。现有的图像超分辨率方法,通常由原始图像直接生成分辨率扩大后的图像,生成图像的过程需要进行大量的计算。
发明内容
本公开的实施例提出了用于生成图像超分辨率模型的方法和装置,以及用于生成超分辨率图像的方法和装置。
第一方面,本公开的实施例提供了一种用于生成图像超分辨率模型的方法,该方法包括:获取训练样本集合,其中,训练样本包括预设分辨率的初始样本图像和预设数量个样本大分辨率图像;获取初始生成对抗网络,其中,初始生成对抗网络包括预设数量个级联的生成网络和预设数量个判别网络,生成网络与判别网络一一对应;利用机器学习方法,将训练样本集合中的训练样本包括的初始样本图像作为预设数量个级联的生成网络中的第一级生成网络的输入,以及对于预设数量个级联的生成网络中的生成网络,将该生成网络输出的大分辨率图像与样本大分辨率图像作为对应的判别网络的输入,对初始生成对抗网络进行训练,将训练后的预设数量个级联的生成网络确定为图像超分辨率模型。
在一些实施例中,预设数量个级联的生成网络中,互相连接的两个生成网络的下一级生成网络的输入是上一级生成网络输出的特征矩阵。
在一些实施例中,对初始生成对抗网络进行训练,包括:利用预设的损失函数对初始生成对抗网络进行训练,其中,预设的损失函数包括用于确定判别网络的判别结果与真实结果的差异的判别损失函数,以及用于确定生成网络生成的大分辨率图像与样本大分辨率图像的差异的生成损失函数。
在一些实施例中,初始生成对抗网络包括的预设数量个级联的生成网络为预先利用生成损失函数训练得到的。
在一些实施例中,初始生成对抗网络还包括预设数量个特征提取网络,特征提取网络与生成网络一一对应,用于提取所输入的图像的特征矩阵;以及对初始生成对抗网络进行训练,包括:对于预设数量个生成网络中的生成网络,分别将该生成网络输出的大分辨率图像和样本大分辨率图像输入与该生成网络对应的特征提取网络,得到大分辨率图像的放大特征矩阵和样本大分辨率图像的样本放大特征矩阵;利用预设的、用于确定放大特征矩阵和样本放大特征矩阵的差异的特征损失函数,以及判别损失函数和生成损失函数,对初始生成对抗网络进行训练。
在一些实施例中,特征损失函数包括以下至少一种损失函数:感知损失函数、基于格拉姆矩阵的损失函数。
第二方面,本公开的实施例提供了一种用于生成超分辨率图像的方法,该方法包括:获取待放大图像;将待放大图像输入预先训练的图像超分辨率模型,生成超分辨率图像及输出,其中,图像超分辨率模型是根据上述第一方面中任一实施例描述的方法生成的。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京字节跳动网络技术有限公司,未经北京字节跳动网络技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910086001.5/2.html,转载请声明来源钻瓜专利网。