[发明专利]一种通过特征解耦实现无监督域自适应图像分类的方法在审
申请号: | 202211555886.7 | 申请日: | 2022-12-06 |
公开(公告)号: | CN115953618A | 公开(公告)日: | 2023-04-11 |
发明(设计)人: | 吴志泽;杜长江;檀明;孙斐;汪新琪;邹乐;何立新;张贯虹;杨静;年福东;王晓峰 | 申请(专利权)人: | 合肥学院 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/82;G06V10/42;G06N3/048;G06N3/088;G06N3/0464 |
代理公司: | 合肥中博知信知识产权代理有限公司 34142 | 代理人: | 杨来宝 |
地址: | 230000 安徽*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 通过 特征 实现 监督 自适应 图像 分类 方法 | ||
本发明公开了一种通过特征解耦实现无监督域自适应图像分类的方法,其步骤包括:1、对包含具有N个类别图像的数据进行图像预处理;2、构建基于互信息的特征解耦与域自适应网络模型;3、使用交替迭代优化的方式训练构建的网络模型;4、利用训练好的模型对待分类的图像进行预测,实现图像的分类识别。本发明能克服标注数据集耗时的问题以及跨域图像分类中域偏移造成的负面影响,从而实现跨域图片的准确分类。
技术领域
本发明涉及计算机视觉技术领域,具体而言是一种基于特征解耦实现的无监督域自适应图像分类方法。
背景技术
大规模数据集往往能让神经网络在封闭的或简单的数据集上取得很好的表现。然而,标注一个新的大规模数据集非常费时费力。在一个有标签的(源)域上训练的网络通常能在这个域的测试集上取得较好的准确率,然而,当将这个模型迁移到一个与源域有较大差异的目标域的时候,同样的一个模型会在目标域上出现显著的性能下降。这是由于不同域之间的域偏移(例如灯光或风格的差异)造成的。因此,我们需要一个能将从有大量标签中学习到的知识迁移到一个不同的但是相关的数据集上的模型。因此,近年来科研人员提出了一些方法应对域偏移对跨域图片分类的影响。这些方法可以分为三类:基于对抗的方法,基于分布距离的方法,引入无监督任务的方法。基于对抗的方法是采用域鉴别器来判断所提取的特征是来自源域还是目标域,特征提取网络想要达到让域鉴别器无法判断特征是来自哪一个域,这两部分之间形成对抗,从而让提取的特征达到域混淆的效果。然而这种方式训练起来相对困难。基于分布距离的方法比较直观,这种方法直接采取某种度量方式来计算不同域之间的距离,然后将此距离作为神经网络的损失来优化网络,从而达到减小域偏移的目的。引入无监督任务的方法通常采用为模型设置几个额外的无监督任务,比如拼图、旋转预测等,然而这种方式达到的域对齐效果有限。
然而无论是以上哪一种方法,它们都存在一些没有克服的问题。这些方法都只考虑对齐全局特征,然而这些全局特征中不可避免的包含一些噪声,如背景等,这些方式会同时将图片中的噪声特征也对齐,这样会让模型的对齐效果受到影响,从而降低了模型分类的准确率。
发明内容
本发明为克服现有技术的不足之处,提出一种基于特征解耦实现的无监督域自适应图像分类方法,以期能够克服跨域图片分类任务中受图片中噪声和冗余特征的影响,从而提高图片分类的准确率。
本发明为达到以上目的,采用如下技术方案。
本发明基于特征解耦实现的无监督域自适应图像分类方法的特点是按如下步骤进行:
步骤1、对包含具有N个类别图像的数据集进行图像预处理:
令源域S中任意一个样本为(xs,ys),其中Xs表示源域中的图像,ys∈{0,1,2,...,N}表示图像的类别,其中N为类别的个数。令目标域T中任意一个样本为(xt,yt),其中Xt表示源域中的图像,yt∈{0,1,2,...,N}表示图像的类别,其中N为类别的个数。将源域和目标域中所有图片放缩为大小为224*224的图片。
步骤2、构建基于互信息的特征解耦与域自适应网络模型,包括:源域全局特征提取器ES和目标域特征提取器Et,类别相关特征提取器Ecls_re,类别无关特征提取器Ecls_irre,图像生成器G,图像分类器C;
步骤2.1、构建所述特征提取器ES与Et,ES与Et有相同的网络结构,且共享网络权重;所述特征提取器为ResNet50结构,由一个卷积层,一个批归一化层,一个RELU激活函数层,一个最大池化层,四个深度残差块和一个平均池化层组成;
步骤2.2、提取图像全局特征:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于合肥学院,未经合肥学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211555886.7/2.html,转载请声明来源钻瓜专利网。