[发明专利]基于迁移学习和视觉词包的遥感样本分类方法在审
申请号: | 202211019600.3 | 申请日: | 2022-08-24 |
公开(公告)号: | CN115661504A | 公开(公告)日: | 2023-01-31 |
发明(设计)人: | 贾若愚;刘仕琪;李洁;邹圣兵 | 申请(专利权)人: | 北京数慧时空信息技术有限公司 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V20/10;G06V10/762;G06V10/82;G06V10/44;G06V10/46;G06N3/0464;G06N3/096 |
代理公司: | 北京恒程知识产权代理有限公司 11914 | 代理人: | 宋朝政 |
地址: | 100070 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 迁移 学习 视觉 遥感 样本 分类 方法 | ||
1.一种基于迁移学习和视觉词包的遥感样本分类方法,其特征在于,该方法包括:
S1获取样本集,同时在前期影像库中筛选源域集;
S2构建组合模型,包括深度学习网络和迁移学习算法;
S3将所述样本集和所述源域集输入所述组合模型,通过所述深度学习网络提取局部特征,利用所述迁移学习算法对所述源域集基于局部特征进行迁移,并构建所述局部特征与标签的映射关系,得到所述样本集的标签,并对所述样本集的标签基于场景类别进行编号;
S4对所述样本集进行二次特征提取,得到特征集,采用聚类方法对所述特征集进行聚类,每个聚类中心的取值与对应的标签编号组成一个视觉单词,所有的所述视觉单词组成视觉词典;
S5对所述样本集中的每个样本图像与所述视觉词典中的视觉单词进行映射,生成视觉词包分布图,对所述视觉词包分布图进行低维度统计,得到视觉词包特征的低维度统计表示;
S6将所述视觉词包特征的低维度统计表示和标签编号作为训练数据,交叉训练得到多个基于不同场景的分类器,所有的分类器组成场景分类模型。
2.根据权利要求1所述的基于迁移学习和视觉词包的遥感样本分类方法,其特征在于,该方法还包括:
获取新样本,根据步骤S3-S5,得到新样本的视觉词包特征的低维度统计表示;
将新样本的视觉词包特征的低维度统计表示输入所述场景分类模型,得到新样本的场景类别。
3.根据权利要求1所述的基于迁移学习和视觉词包的遥感样本分类方法,其特征在于,深度学习网络为AlexNet、ResNet、VGGNet或其它深度学习网络中的至少一项,迁移学习算法为基于特征的迁移学习算法。
4.根据权利要求1所述的基于迁移学习和视觉词包的遥感样本分类方法,其特征在于,步骤S4包括:
对所述样本集中的每个样本进行密集格网采样,利用SIFT方法对每个采样区进行二次特征提取,得到SIFT特征;
采用E2LSH聚类方法对SIFT特征进行聚类,所得到的每个聚类中心的取值与对应的标签编号组成一个视觉单词,所有的视觉单词构成视觉词典。
5.根据权利要求4所述的基于迁移学习和视觉词包的遥感样本分类方法,其特征在于,步骤S5包括:
计算每个采样区的SIFT特征与所述视觉词典中的每个视觉单词对应的特征值之间的欧氏距离;
找出欧氏距离最小的视觉单词的编号,并将其作为相应的采样区的视觉单词映射结果,得到每个样本图像的视觉词包分布图;
将所述视觉词包分布图作为图像进行LBP变换,得到视觉词包特征的LBP直方图表示。
6.根据权利要求1至5中任一项所述的基于迁移学习和视觉词包的遥感样本分类方法,其特征在于,所述将所述样本集和所述源域集输入所述组合模型,通过所述深度学习网络提取局部特征,包括:
分别将所述样本集中的样本图像和所述源域集中的样本图像输入深度学习网络,所述深度学习网络包括第五层的池化层以及第六层和第七层的全连接层
提取第六和第七两个全连接层的输出,得到两种不同的高层特征;
提取第五层池化层的输出,并采用主成分分析方法进行降维,得到第三种高层特征;
将三种高层特征通过串联的形式进行特征融合,得到融合后的深度特征向量,作为提取得到的局部特征。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京数慧时空信息技术有限公司,未经北京数慧时空信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211019600.3/1.html,转载请声明来源钻瓜专利网。