[发明专利]一种基于对偶学习的无监督图像风格迁移方法有效
申请号: | 201910552097.X | 申请日: | 2019-06-25 |
公开(公告)号: | CN110458750B | 公开(公告)日: | 2021-05-25 |
发明(设计)人: | 宋丹丹;李志凡 | 申请(专利权)人: | 北京理工大学 |
主分类号: | G06T3/00 | 分类号: | G06T3/00;G06N3/04;G06N3/08 |
代理公司: | 北京正阳理工知识产权代理事务所(普通合伙) 11639 | 代理人: | 毛燕 |
地址: | 100081 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: |
本发明涉及一种基于对偶学习的无监督图像风格迁移方法,属于计算机视觉领域。本发明首先预处理训练数据,然后设计生成器和判别器的网络结构;接下来设计损失函数并用训练数据和损失函数对生成器、判别器进行训练得到无监督图像风格迁移网络S |
||
搜索关键词: | 一种 基于 对偶 学习 监督 图像 风格 迁移 方法 | ||
【主权项】:
1.一种基于对偶学习的无监督图像风格迁移方法,其特征在于,包括以下步骤:/n步骤1:预处理训练数据;/n准备两种风格的一定数目的图像作为训练数据;将训练数据集中所有图像统一缩放为m×n的固定尺寸;其中,m和n为自然数;/n步骤2:设计网络结构模型;/n网络结构模型共包含五个网络:风格迁移网络GA、GB,判别网络DA、DB,美学评分网络Ns;/n其中,GA、GB具有相同的网络结构,分别用于不同方向的图像风格迁移;DA、DB具有相同的网络结构,分别判断不同风格的某图像是否真实;Ns是预训练的美学评分模型,作为整个网络的插件使用,本身不参与更新;整个模型由端到端训练的深度卷积神经网络构成;/n对于A风格原始图像a0,首先经GB生成B风格生成图像b1,再经GA生成A风格重建图像a2;对于B风格原始图像b0,首先经GA生成A风格生成图像a1,再经GB生成B风格重建图像b2;/n步骤3:设计用于训练网络的损失函数;/n采用多种损失函数相结合,网络的损失函数包含四部分:对抗损失Ladv、美学损失Laes、对偶一致性损失Ldual、风格平衡损失Lstyle;整体损失函数Loss为:/nLoss=Ladv+λ1Laes+λ2Ldual+λ3Lstyle/n其中,λ1、λ2、λ3分别表示美学损失Laes、对偶一致性损失Ldual、风格平衡损失Lstyle的权重;/n对抗损失Ladv使用最小二乘损失,对于DA和GA,分别表示如下:/n /n /n对于DB和GB,则分别表示如下:/n /n /n其中,DA(·)表示判别网络DA对图像·的判别结果,DB(·)表示判别网络DB对图像·的判别结果;GA(·)表示图像·经过风格迁移网络G#转换后的结果,GB(·)表示图像·经过风格迁移网络GB转换后的结果; 表示·关于a0的数学期望, 表示·关于b0的数学期望。/n美学损失Laes通过美学模型进行计算,表示如下:/n /n其中,K是自然数,Ns分别给出评分为1-K分的概率,pi表示评分为i的概率;美学损失通过最大化生成图像的美学评分期望,指导风格迁移网络的训练,以消除图像噪点和畸变;/n对偶一致性损失Ldual同时使用基本像素特征和高级语义特征,并进行一阶范式约束,即L1约束,用于约束风格迁移后的图像与原图像在内容上有对应关系,表示如下:/nLdual=θpLp+θsLs/n其中,Lp、Ls分别表示基本像素特征的L1约束和来自判别网络的高级语义特征的L1约束,θp、θs用于动态调整像素约束和语义约束的权重;/n像素约束Lp表示如下:/n /n语义约束Ls表示如下:/n /n其中,||·||1表示·的L1约束;/n风格平衡损失Lstyle主要用于平衡不同方向上的训练速度,以保证联合训练时的模型可以取得较好的效果;对于风格迁移网络,表示如下:/n /n其中, 分别表示GA,GB的对抗损失;/n对于判别网络,表示如下:/n /n其中, 分别表示DA,DB的对抗损失;/n步骤4:用步骤1的预处理训练数据、步骤3的损失函数,训练步骤2的网络模型得到无监督图像风格迁移网络ST;/n步骤5:进行风格迁移应用,将待转换图像输入步骤4得到的风格迁移网络ST,得到风格迁移后的图像。/n
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910552097.X/,转载请声明来源钻瓜专利网。