[发明专利]一种基于自监督对比学习的小样本遥感图像分类方法有效
申请号: | 202210228860.5 | 申请日: | 2022-03-10 |
公开(公告)号: | CN114299398B | 公开(公告)日: | 2022-05-17 |
发明(设计)人: | 刘泉涌;付应雄;彭江涛;陈娜;黄怡;宁羽杰;余林洲 | 申请(专利权)人: | 湖北大学 |
主分类号: | G06V20/10 | 分类号: | G06V20/10;G06V10/40;G06V10/58;G06V10/764;G06V10/82;G06K9/62;G06N3/04 |
代理公司: | 武汉泰山北斗专利代理事务所(特殊普通合伙) 42250 | 代理人: | 程千慧 |
地址: | 430062 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 监督 对比 学习 样本 遥感 图像 分类 方法 | ||
1.一种基于自监督对比学习的小样本遥感图像分类方法,其特征在于,包括以下步骤:
步骤1、数据预处理,对原始高光谱数据进行降维,再分割成多个像素立方块,每个像素立方块即为一个样本,将已进行人工标记的样本放入训练集,将未标注的样本放入测试集;
步骤2、假设共包含个类别的样本,从训练集中每一类别的样本中选取一个标记样本,将所有类别的样本组成第一个对比学习组,再从训练集中每一类别的样本中选取一个标记样本,将所有类别的样本组成第二个对比学习组;则每个对比学习组中均有个样本且两个对比学习组之间没有重复样本;
步骤3、设计并构建深度特征提取网络模型,利用两个对比学习组训练深度特征提取网络模型,通过最小化两个对比学习组之间的相似度差异、第一个对比学习组的分类损失和第二个对比学习组的分类损失来优化深度特征提取网络模型参数,训练后得到初步训练的深度特征提取网络模型;
步骤4、计算每个未标记样本到各类别的空间和光谱联合距离,根据概率转换公式将未标记样本到各类别的空间和光谱联合距离转化成概率,选择概率最大的类别对未标记样本进行标记并生成伪标记样本,根据置信度差异算法计算所有伪标记样本的置信度,选取置信度大于预设置信度阈值的伪标记样本放入伪标记样本集;
所述步骤4中,根据置信度差异算法计算伪标记样本置信度的方法为采用如下公式计算:
其中,为伪标记样本的置信度,为伪标记样本到所有类别的概率向量中的最大值,为样本到所有类别的概率向量中的第二大值;
步骤5、利用伪标记样本集对初步训练的深度特征提取网络模型进行训练,通过最小化伪标记样本的分类损失优化模型参数,训练后得到最终深度特征提取网络模型;
步骤6、将测试集中的样本输入最终深度特征提取网络模型,输出分类后的样本。
2.根据权利要求1所述的基于自监督对比学习的小样本遥感图像分类方法,其特征在于,所述步骤1中,对原始的高光谱数据进行降维后,将数据分割为多个大小相同的像素立方块,计算像素立方块中每个像素点与中心像素点之间的相似度,并且删除相似度低于预设像素阈值的像素点信息,得到最终的像素立方块。
3.根据权利要求1所述的基于自监督对比学习的小样本遥感图像分类方法,其特征在于,所述步骤3中两个对比学习组之间的相似度差异的计算方法为:假设第一个对比学习组中样本的特征向量分别为;第二个对比学习组中样本的特征向量分别为;其中的样本属于同一类别,, ∈[1,2,……,],则的相似度差异计算公式如下:
其中,为预设系数参数,为的余弦相似度,则两个对比学习组之间的相似度差异计算公式如下:
。
4.根据权利要求1所述的基于自监督对比学习的小样本遥感图像分类方法,其特征在于,所述步骤3中计算每个对比学习组的分类损失的方法为,分别计算组中每个样本与对应真实值的交叉熵,再将组中所有样本对应的交叉熵求和得到每个对比学习组的分类损失。
5.根据权利要求1所述的基于自监督对比学习的小样本遥感图像分类方法,其特征在于,所述步骤4中,空间光谱联合距离计算公式为:
其中,为未标记样本,为一个类别的标记样本,为的空间光谱联合距离,为的空间距离,为由KL散度计算的的光谱距离;
则未标记样本到第类的空间光谱联合距离为到第类各标记样本的距离的最小值,计算公式如下:
。
6.根据权利要求1所述的基于自监督对比学习的小样本遥感图像分类方法,其特征在于,所述步骤4中,使用Softmax概率转换公式将未标记样本到每一类别标记样本的空间和光谱联合距离转化成概率。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖北大学,未经湖北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210228860.5/1.html,转载请声明来源钻瓜专利网。