[发明专利]一种基于改进原型网络的小样本图像分类方法在审
申请号: | 202210216505.6 | 申请日: | 2022-03-07 |
公开(公告)号: | CN114742127A | 公开(公告)日: | 2022-07-12 |
发明(设计)人: | 黄彦乾 | 申请(专利权)人: | 上海电机学院 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06V10/82;G06V10/764;G06V10/774 |
代理公司: | 上海科盛知识产权代理有限公司 31225 | 代理人: | 叶敏华 |
地址: | 200240 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 改进 原型 网络 样本 图像 分类 方法 | ||
本发明涉及一种基于改进原型网络的小样本图像分类方法,包括:初始化当前任务的图像数据集,将初始化后当前任务的图像数据集划分为训练集和测试集;利用训练集,并结合外部辅助数据集,对GNN进行训练,得到训练好的GNN;将训练集和测试集分别输入训练好的GNN,以分别进行特征嵌入,并通过特征编码,分别得到训练集图像特征和测试集图像特征;根据训练集图像特征,从训练集中筛选出有效样本特征类原型;将测试集图像特征以及有效样本特征类原型输入CNN,以得到测试集图像样本分别与各类原型之间的相似度;根据测试集图像样本与各类原型之间的相似度,完成对测试集图像样本的类别划分。与现有技术相比,本发明能够有效提高小样本图像分类的准确率。
技术领域
本发明涉及图像分类技术领域,尤其是涉及一种基于改进原型网络的小样本图像分类方法。
背景技术
原型网络被广泛应用于小样本数据集的图像样本识别与分类,该算法属于小样本图像分类方法中的一种简单的嵌入学习方法(单一嵌入模型的一种一般嵌入模型),能够在每一类图像样本中给出少量样例的情况下,识别并学习得到图像对应的类别。如图1所示,其主要思想是将每个类别中的图像样例映射(特征嵌入)到一个空间(CNN,ConvolutionalNeural Networks,卷积神经网络)当中,通过神经网络学会一个“好的”映射,则将各个任务样本投影到同一空间中;
接下来提取他们的“均值”来表示为该类的原型(prototype),其实现原理为:
然后使用欧式距离作为度量模块的距离度量,测试时,计算测试集图像样例与每一类训练集图像样例原型的距离,采用softmax函数来处理计算的距离,进而来判断测试数据的类别标签。
上述现有的原型网络方法在进行小样本图像分类时,主要存在以下几点不足:其一,在样本特征嵌入时,由于采用较为简单的CNN网络架构(网络层数较少),无法保证在特征提取时能得到足够多且与任务相关的样本特征,同时该CNN网络架构对样本特征的编码能力和表达能力也较差,很难让在特征嵌入空间中各类样本原型的特征向量间具有足够明显的差别;
其二,只采用外部辅助的图像样本集训练得到的特征嵌入网络的任务相关性较弱,不利于获取重要的与任务有关的样本特征,不利于后续准确分类;
其三,采用求均值求解出的“原型”来代表一个已知类的所有样本会显得以偏概全,假如数据量足够的情况下,可能会取得比较好的效果。然而当现有的数据量较少时,一般实际场景中的样本集中都存在干扰的样本,简单求均值得到的原型会受干扰样本的影响,后续给图像样本分类会出现极大的分类偏差;
其四,在度量时,只采用传统的固定的距离度量来衡量两个或多个样本的相似度,针对一些简单通用的图像数据集来说可能效果不错,但是对于平常使用的图像数据集,由于彼此间通用的特征较少,要从中找出与任务相关的样本特征并不容易、导致有些图像样本容易被忽视,如果直接用于归类图片样本,将使得图像判别的效果显得较为一般、分类准确率较低。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于改进原型网络的小样本图像分类方法,通过对现有原型网络进行改进、并应用于小样本图像分类,以提高分类的准确率。
本发明的目的可以通过以下技术方案来实现:一种基于改进原型网络的小样本图像分类方法,包括以下步骤:
S1、初始化当前任务的图像数据集,将初始化后当前任务的图像数据集划分为训练集和测试集;
S2、利用训练集,并结合外部辅助数据集,对GNN(Graph Neural Network,图神经网络)进行训练,得到训练好的GNN;
S3、将训练集和测试集分别输入训练好的GNN,以分别进行特征嵌入,并通过特征编码,分别得到训练集图像特征和测试集图像特征;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海电机学院,未经上海电机学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210216505.6/2.html,转载请声明来源钻瓜专利网。