[发明专利]一种基于全卷积稠密网络的人像抠图方法在审
申请号: | 202011418101.2 | 申请日: | 2020-12-07 |
公开(公告)号: | CN112529929A | 公开(公告)日: | 2021-03-19 |
发明(设计)人: | 李丽香;张嘉轩;彭海朋;杨子航 | 申请(专利权)人: | 北京邮电大学 |
主分类号: | G06T7/194 | 分类号: | G06T7/194;G06N3/08;G06N3/04 |
代理公司: | 北京柏杉松知识产权代理事务所(普通合伙) 11413 | 代理人: | 丁芸;马敬 |
地址: | 100876 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 卷积 稠密 网络 人像 方法 | ||
1.一种基于全卷积稠密网络的人像抠图方法,其特征在于,所述方法包括:
获取样本图像,其中,所述样本图像包括:RGBA人像图像、输入图像、三分图trimap图,所述输入图为对应不同透明度的多张所述人像图像和背景图像合成的图像,所述trimap图是通过所述RGBA人像图像构造得到的图像;
将所述输入图和所述trimap图输入到待训练的生成对抗网络GAN网络中的全卷积稠密网络中,得到所述全卷积稠密网络的第一输出结果,其中,所述待训练的GAN网络包括全卷积稠密网络和判别器;
以所述RGBA人像图像为标准,根据所述全卷积稠密网络的第一输出结果计算所述全卷积稠密网络的第一损失;
当所述全卷积稠密网络的第一损失大于第一预设阈值时,对所述全卷积稠密网络进行参数的修正,返回执行上述步骤:将所述输入图和所述trimap图输入到待训练的GAN网络中的全卷积稠密网络中,得到所述全卷积稠密网络的第一输出结果;
当所述全卷积稠密网络的第一损失小于第一预设阈值时,将所述全卷积稠密网络的第一输出结果输入到所述判别器中,得到所述判别器的第一输出结果;
以所述RGBA人像图像为标准,根据所述判别器的第一输出结果计算所述判别器的第一损失;
当所述判别器的第一损失大于第二预设阈值时,对所述判别器进行参数的修正,返回执行上述步骤:将所述全卷积稠密网络的第一输出结果输入到所述判别器中,得到所述判别器的第一输出结果;
当所述判别器的第一损失小于第二预设阈值时,得到所述训练好的GAN网络。
2.根据权利要求1所述的方法,其特征在于,所述当所述判别器的第一损失小于第二预设阈值时,得到所述训练好的GAN网络,包括:
当所述判别器的第一损失小于第二预设阈值时,将所述输入图和所述trimap图输入到所述全卷积稠密网络中,得到所述全卷积稠密网络的第二输出结果;将所述全卷积稠密网络的输出结果输入到所述判别器中,得到所述判别器的第二输出结果;
以所述RGBA人像图像为标准,根据所述全卷积稠密网络的第二输出结果计算所述全卷积稠密网络的第二损失;以所述RGBA人像图像为标准,根据所述判别器的第二输出结果计算所述判别器的第二损失;
根据预设系数对所述全卷积稠密网络的第二损失和所述判别器的第二损失进行加权求和,得到所述GAN网络损失;
当所述GAN网络损失大于第三预设阈值,根据所述GAN网络损失对所述GAN网络进行特征参数的调整,返回执行上述步骤:将所述输入图和所述trimap图输入到所述全卷积稠密网络中,得到所述全卷积稠密网络的第二输出结果;
当所述GAN网络损失小于第三预设阈值,得到训练好的GAN网络。
3.根据权利要求1所述的方法,其特征在于,所述以所述RGBA人像图像为标准,根据所述全卷积稠密网络的第一输出结果计算所述全卷积稠密网络的第一损失,包括:
以所述RGBA人像图像为标准,根据所述全卷积稠密网络的第一输出结果利用均方误差MSE损失函数计算所述全卷积稠密网络的第一损失。
4.根据权利要求1所述的方法,其特征在于,所述以所述RGBA人像图像为标准,根据所述判别器的第一输出结果计算所述判别器的第一损失,包括:
以所述RGBA人像图像为标准,根据所述判别器的第一输出结果利用Wasserstein距离计算所述判别器的第一损失。
5.根据权利要求2所述的方法,其特征在于,所述方法还包括:
将待处理的图像输入所述训练好的GAN网络中,得到所述待处理的图像对应的人像前景图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京邮电大学,未经北京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011418101.2/1.html,转载请声明来源钻瓜专利网。