[发明专利]基于反标签学习的半监督少样本图像分类学习方法及系统在审
申请号: | 202211106572.9 | 申请日: | 2022-09-12 |
公开(公告)号: | CN115439715A | 公开(公告)日: | 2022-12-06 |
发明(设计)人: | 魏秀参;徐赫洋 | 申请(专利权)人: | 南京理工大学 |
主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V10/764;G06V10/82 |
代理公司: | 南京理工大学专利中心 32203 | 代理人: | 陈鹏 |
地址: | 210094 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 标签 学习 监督 样本 图像 分类 学习方法 系统 | ||
本发明公开了一种基于反标签学习的半监督少样本图像分类学习方法及系统,方法包括:构造元任务,使用预训练的神经网络作为特征提取器,提取元任务中对应数据的特征,并在支持集上训练一个分类器用于后续分类任务;反标签学习模块以较高正确率给无标签数据打上反标签,分类器在反标签上进行学习更新,不断迭代直到无法选出反标签;在反标签模块迭代结束之后,得到类别均衡且正确率较高的正标签,并用分类器进行学习更新。本发明充分且高质量的利用无标签数据,可以获得更高的少样本学习图像分类准确率。
技术领域
本发明属于计算机视觉领域,具体涉及一种基于反标签学习的半监督少样本图像分类学习方法及系统。
背景技术
随着深度学习的发展,卷积神经网络在多个图像任务上已经超过了人类的水平,但是这些模型的训练依赖大量的数据,在现实生活中有些数据的采集难度较大,例如对濒危鸟类等数据的收集,另外这些数据的标注也需要耗费大量的人力和财力。相比之下,人类视觉系统可以从少量的例子中快速学习到新的概念和特征,然后在新的数据中识别相似的对象。为了模仿人类的这种快速学习的能力,减少方法对于数据的依赖,少样本学习近年来受到了越来越多的关注。少样本学习旨在结合先验知识快速地泛化到只包含少量有监督信息的样本的新任务中,在此设定下识别每个类别仅需要极少甚至一张带标签的样本,所以可以极大的减小人工标注成本。
基于少样本学习这样数据量较少的设定,一个需要面临的问题就是,在极少的带标注数据上,很难让模型较好的拟合到数据的分布。因此为了解决这样的问题,少样本学习中出现了结合半监督的研究方向。
另外为了解决数据标注困难的问题,反标签学习的方法也应运而生。反标签顾名思义就是给数据打上相反的标签,是一种间接的方式代表该数据不属于某个类别。这样的做法可以大大降低数据标注的错误,例如对于一个5分类问题来说,给数据打真实标签即正标签错误的概率为给数据打反标签错误概率的4倍。另外在半监督少样本学习当中,由于带标签数据很少,因此模型在初始阶段很难有好的效果。用这样的模型给无标签数据标记伪标签将会出现大量的错误以及类别不平衡的现象。在这样的情况结合反标签学习的方法就可以解决这样的问题。本发明研究的基于反标签学习的半监督少样本学习方法,针对半监督少样本学习,设计适合的反标签标注方法,并结合反标签学习解决半监督少样本学习中出现的无标签数据利用不充分等问题。
目前,出现了许多研究半监督少样本学习的方法,但依然存在一些问题:1)给无标签数据标注伪标签的正确率较低,错误标记的样本会影响最后的结果;2)无标签数据上标注的伪标签存在类别不平衡现象;3)方法较为复杂。
发明内容
本发明的目的在于提供一种基于反标签学习的半监督少样本图像分类学习方法及系统。
实现本发明目的的技术方案为:第一方面,本发明提供一种基于反标签学习的半监督少样本图像分类学习方法,包括以下步骤:
步骤1,构造元任务,使用预训练的神经网络作为特征提取器用来提取图像数据,提取元任务中支持集、查询集以及无标签数据集对应的特征,并在支持集上训练一个分类器,用于后续图像分类任务;
步骤2,反标签学习模块以较高的95%正确率给无标签图像数据打上反标签,用分类器在反标签上进行学习更新,通过不断迭代直到无法选出反标签;
步骤3,正标签学习模块得到类别均衡且正确率高达85%的正标签,并用分类器进行学习更新。
步骤4,用训练好的分类器在查询集上预测得到最后图像分类的类别结果。
第二方面,本发明提供一种基于反标签学习的半监督少样本图像分类学习系统,包括:
特征提取模块,用于构造元任务,使用预训练的神经网络作为特征提取器提取图像数据,提取元任务中支持集、查询集以及无标签数据集对应的特征,并在支持集上训练一个分类器,用于后续图像分类任务;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京理工大学,未经南京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211106572.9/2.html,转载请声明来源钻瓜专利网。