[发明专利]基于生成对抗网络的图像语义分割模型构建方法和装置有效
申请号: | 201910818647.8 | 申请日: | 2019-08-30 |
公开(公告)号: | CN110570433B | 公开(公告)日: | 2022-04-22 |
发明(设计)人: | 吴霞 | 申请(专利权)人: | 北京影谱科技股份有限公司 |
主分类号: | G06T7/11 | 分类号: | G06T7/11;G06V10/764;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 北京万思博知识产权代理有限公司 11694 | 代理人: | 高镇 |
地址: | 100000 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 生成 对抗 网络 图像 语义 分割 模型 构建 方法 装置 | ||
本申请公开了一种基于生成对抗网络的图像语义分割模型构建方法和装置,该方法使用分割模型训练源域数据集,再使用生成对抗网络将源域数据集转换为新的目标域数据集,该新的目标域数据集保留了源域数据集中图像的结构特征但同时具有目标域数据集的全局特征,因此使用新的目标域数据集微调源域分割模型将降低源域和目标域的域移位影响,并且不会对数据的其他图像特征产生负影响,提高了图像语义分割模型的泛化能力,提高了自适应图像语义分割模型的精度和效率。如此,通过使用生成对抗网络有效的减少了源域和目标域间域移位的影响,提高了自适应图像语义分割的准确率和效率,并降低了成本,不用人工的工作也能取得较高的准确度。
技术领域
本申请涉及图像识别技术领域,特别是涉及一种基于生成对抗网络的图像语义分割模型构建方法和装置。
背景技术
图像分割是指根据图像内容对指定区域进行标记的计算机视觉任务,具体来讲,图像语义分割的目的在于标记图像中的每一点像素,并将像素和其对应的类别对应起来。在场景理解、医疗图像、无人驾驶等方面具有重要的实际应用价值。
传统的图像语义分割方法有以下几种:
第一种是阈值法,即将一个灰度图像转换为背景分离的二值图像;
第二种是像素聚类的方法,假设图像中有K个类别,采用聚类迭代的方式将图像中的像素点分类;
第三种是图像边缘分割的方法,通常使用边缘检测算法扫描图像得到边缘图像,再利用提取到的边缘图像信息将图像中的不同区域分割出来;
第四种是区域生成的方式,这是一种根据同一物体局部区域内像素具有相似性来聚集像素点的方法。
随着深度学习在计算机视觉领域取得的优秀成果,目前基于深度学习的图像语义分割方法已成为最热门方法。但是深度学习的成功性很大程度上取决于所使用的的训练集的质量,高质量的训练集需要耗费大量的人力物力的消耗,虽然目前已有几个高质量的用于图像语义分割的数据集,能够帮助学者进行相关的研究工作,但由于模型自身泛化能力的限制,无法很好的应用于实际生活中的图像语义分割中,因此图像语义分割模型的自适应问题更为需要解决的热点问题。
发明内容
本申请的目的在于克服上述问题或者至少部分地解决或缓减解决上述问题。
根据本申请的一个方面,提供了一种基于生成对抗网络的图像语义分割模型构建方法,包括:
选取基础数据集,确定出目标域数据集和源域数据集;
采用源域数据集对分割模型进行训练,训练后得到源域分割模型,所述源域分割模型通过双边分割网络进行图像特征提取;
采用生成对抗网络模型对从源域数据集中所提取出的图像与目标域数据集进行对抗训练,使得生成真实的图像样本,并将训练完的图像样本输出构成新的目标域数据集;
采用经分割模型训练后的源域数据集的权重值作为对所述新的目标域数据集进行分割模型训练的起始点,使用所述新的目标域数据集微调所述源域分割模型,其中是使用交叉熵作为损失函数进行微调,最终构建出适用于目标域数据集的语义分割模型。
可选地,采用源域数据集对分割模型进行训练,训练后得到源域分割模型,所述源域分割模型通过双边分割网络进行图像特征提取,包括:
采用深度残差网络作为双边分割网络对源域数据集进行图像特征提取,实现对源域数据集进行若干个批次的训练,在训练过程中使用ADAM作为训练优化器,得到分割精度高的图像。
可选地,采用生成对抗网络模型对从源域数据集中所提取出的图像与目标域数据集进行对抗训练,使得生成真实的图像样本,并将训练完的图像样本输出构成新的目标域数据集,包括:
生成对抗网络由生成器和鉴别器组成;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京影谱科技股份有限公司,未经北京影谱科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910818647.8/2.html,转载请声明来源钻瓜专利网。