[发明专利]一种生成图像增强模型的方法在审
申请号: | 201910246026.7 | 申请日: | 2019-03-28 |
公开(公告)号: | CN109978792A | 公开(公告)日: | 2019-07-05 |
发明(设计)人: | 周铭柯;李志阳;张伟;李启东;傅松林 | 申请(专利权)人: | 厦门美图之家科技有限公司 |
主分类号: | G06T5/00 | 分类号: | G06T5/00 |
代理公司: | 北京思睿峰知识产权代理有限公司 11396 | 代理人: | 谢建云;张赞 |
地址: | 361008 福建省厦门*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 生成器 原始图片 目标图片 生成图像 图片输入 图像增强 网络参数 判别器 图片 预定条件 对抗 网络 输出 | ||
本发明公开了一种生成图像增强模型的方法,包括:获取原始图片和对原始图片进行处理后的目标图片;将原始图片和目标图片分别输入第一生成对抗网络和第二生成对抗网络进行处理,以对应输出第一图片和第一判别值以及第二图片和第二判别值:将第一图片输入第二生成器,得到第一生成图片,并将第二图片输入第一生成器,得到第二生成图片;确定第一损失值,并根据第一损失值调整第一生成器和第二生成器的网络参数;确定第二损失值,并根据第二损失值调整第一判别器和第二判别器的网络参数;直到第一损失值和第二损失值满足预定条件时,将对应的第一生成器和/或第二生成器作为生成的图像增强模型。该方案能够进一步提升图像增强效果。
技术领域
本发明涉及深度学习技术领域,尤其涉及一种生成图像增强模型的方法、图像增强方法、计算设备及存储介质。
背景技术
在对图像的处理和应用过程中,包括图像采集、压缩、编码、存储、通信、显示等各个环节都可能导致图像质量变差。虽然手机的分辨率、拍摄性能有了极大的改善,但是由于拍摄场景等问题可能会导致图片质量较差。因此,仍然需要对图像将进一步的处理。例如,使用图像增强技术来改善图片的视觉效果,可以有目的地强调图像的整体或局部特征,将原来不清晰的图像变得清晰,扩大图像中不同物体特征之间的差别,改善图像质量。
图像增强一般是调整图像的明暗、饱和度和对比度。目前大部分图像增强算法是用固定的参数值调整各个通道的像素值,这种方法效果单一,容易出现效果不自然、色块等问题。基于卷积神经网络的图像增强算法虽然在某些方面优于传统算法,但是总体调色效果较为保守,对用户没有足够的吸引力。
因此,需要一种图像增强方法,能够进一步强化图像增强效果。
发明内容
为此,本发明提供了一种生成图像增强模型的方法以及图像增强方法,以力图解决或者至少缓解上面存在的至少一个问题。
根据本发明的一个方面,提供了一种生成图像增强模型的方法,该方法适于在计算设备中执行,包括:首先,获取原始图片和对原始图片进行处理后的目标图片。然后,将原始图片和目标图片分别输入第一生成对抗网络和第二生成对抗网络进行处理,以对应输出第一图片和第一判别值以及第二图片和第二判别值,其中,所述第一生成对抗网络包括第一生成器和第一判别器,所述第二生成对抗网络包括第二生成器和第二判别器。随后,将第一图片输入第二生成器,得到第一生成图片,并将第二图片输入第一生成器,得到第二生成图片。然后,确定第一图片与目标图片之间、第一生成图片与原始图片之间、第二图片与原始图片之间、第二生成图片与目标图片之间、第一判别值与预设正标签值之间、第二判别值与预设正标签值之间的第一损失值,并根据第一损失值调整第一生成器和第二生成器的网络参数;以及确定第一判别值与预设负标签值之间、第二判别值与预设负标签值之间的第二损失值,并根据第二损失值调整第一判别器和第二判别器的网络参数。最后,重复确定第一损失值和第二损失值并调整网络参数的步骤,直到第一损失值和第二损失值满足预定条件时,将对应的第一生成器和/或第二生成器作为生成的图像增强模型。
可选地,在上述方法中,预定条件包括:第一损失值和第二损失值不再减少或者前后两次迭代计算的差值小于预定阈值。
可选地,在上述方法中,第一生成器/第二生成器为编码器-解码器网络结构,包括多个卷积处理层、反卷积处理层和跳转连接层。
可选地,在上述方法中,还可以对获取的原始图片和目标图片分别进行预处理。
可选地,在上述方法中,分别取出预定数量的原始图片和与其对应的目标图片,并从所取出的原始图片和与其对应的目标图片中的相同位置处截取出预定尺寸的图像。
可选地,在上述方法中,对原始图片的处理可以包括调整图像亮度、饱和度和对比度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于厦门美图之家科技有限公司,未经厦门美图之家科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910246026.7/2.html,转载请声明来源钻瓜专利网。