[发明专利]基于W距离的稳定可控图像生成模型训练方法有效
申请号: | 202010814704.8 | 申请日: | 2020-08-13 |
公开(公告)号: | CN112070209B | 公开(公告)日: | 2022-07-22 |
发明(设计)人: | 董春茹;刘轶功;花强;张峰;赵世朋 | 申请(专利权)人: | 河北大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08;G06K9/62;G06V10/764;G06V10/82 |
代理公司: | 石家庄国域专利商标事务所有限公司 13112 | 代理人: | 苏艳肃 |
地址: | 071002 *** | 国省代码: | 河北;13 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 距离 稳定 可控 图像 生成 模型 训练 方法 | ||
本发明提供了一种基于W距离的稳定可控图像生成模型训练方法,包括以下步骤:a、对图象数据进行预处理,得到训练集的样本数据;b、构建基于W距离的稳定可控图像生成模型,c、根据各个网络的损失函数搭建整体模型;d、通过梯度下降算法交替迭代模型训练,保证模型参数的正常收敛;e、模型参数收敛后,分别将生成器网络G、编码器网络E、分类器网络C分离出来作为单独的服务类产品使用。本发明是一种端到端的网络模型,从模型结构和分布度量标准两个方面对现有技术中的模型进行了改进,解决了模型训练梯度不稳定和模型梯度下降方向不稳定的问题,能够稳定的定向生成图象样本,提升了模型训练过程中的鲁棒性及生成样本的可控性。
技术领域
本发明涉及图像识别技术领域,具体地说是一种基于W距离的稳定可控图像生成模型训练方法。
背景技术
近年来,生成对抗网络(Generative Adversarial Networks,GAN)及其衍生出的生成模型是机器学习和深度学习社区的核心话题之一,其中双向生成对抗网络(BiGAN)是高维复杂数据建模最重要的深度生成模型之一。BiGAN模型通过在GAN模型中引入编码器网络E使得在编码的过程中可以将相似样本的隐变量聚在一起,使得低维流形得以连续,达到隐式正则化的效果,从而可以提高模型泛化能力。
然而,在BiGAN模型的训练过程中,极易发生真实数据分布和生成样本分布的支撑集同时是高维空间中的低维流形的情况,此时两个分布重叠部分的测度可以忽略不计,这将导致在BiGAN模型及其变种模型的训练迭代过程中出现梯度为零的情况,从而使得生成器网络G 无法接收有效的梯度信息,导致训练失败,影响模型鲁棒性;此外,由于BiGAN模型生成样本的过程具有不可控性,我们很难在BiGAN模型生成样本中找出需要的数据,而人为挑选则会大大增加工作量,从而无法适应大数据量的样本定向生成任务。
具体地说,GAN模型于2014年由Goodfellow等人提出,是一种实现复杂数据分布学习的无监督生成模型。该模型主要由生成器网络G和判别器网络D两部分构成,其中生成器网 G络将输入的随机噪声映射为生成样本,而判别器网络D同时接收真实样本和生成样本,并判别输入样本的真伪(即判别样本是真实样本还是生成样本)。在GAN模型的训练过程中,通过构建目标函数引入竞争机制让这两个网络同时得到优化,最终使得生成器网络G生成与真实样本数据分布足够相似的新数据分布。GAN模型的结构如图1所示。
设q(x)为真实数据分布,其中x∈ΩX,设p(z)为一个固定的隐编码分布,其中z∈ΩZ,通常定义为简单分布,例如标准正态分布p(z)=N(0,1),生成器网络G:ΩZ→ΩX可以将隐编码分布映射到数据分布,D(x)代表x来自于真实数据分布q(x)而不是生成样本分布的概率。据此 GAN网络的优化目标函数如下:
由于GAN生成器网络G所获得的用于更新参数的信息只来自于判别器网络D,致使生成器网络G不知道更新的方向,为了解决原始GAN模型的生成样本目标不可控这个问题,Mirza M等人提出了一种特定条件下的样本生成模型,即Conditional GenerativeAdversarial Nets(CGAN),CGAN模型的网络拓扑结构如图2所示。
条件生成对抗网络是在原始GAN功能上的一个扩展,其核心技术在于将条件信息y同时融入生成器网络G和判别器网络D中,目标函数为:
模型中y是条件,将噪声z加上条件y得到条件概率分布z|y,送入网络中训练得到生成样本分布,G(z|y)生成器网络G生成的样本。x是在数据集中采样得到的真实样本,与条件y 结合得到条件概率分布z|y,其含义是满足条件y的真实样本的分布,与送来的G(z|y)比较得到唯一的数值,反馈训练模型整体调整收敛参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河北大学,未经河北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010814704.8/2.html,转载请声明来源钻瓜专利网。