[发明专利]基于Faster RCNN改进的少样本目标检测方法在审
申请号: | 202210311386.2 | 申请日: | 2022-03-28 |
公开(公告)号: | CN114663707A | 公开(公告)日: | 2022-06-24 |
发明(设计)人: | 江彧;杜芸彦;毛耀;李鸿;杨锦辉;刘超;彭锦锦 | 申请(专利权)人: | 中国科学院光电技术研究所 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/42;G06V10/44;G06V10/74;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 北京科迪生专利代理有限责任公司 11251 | 代理人: | 邓治平 |
地址: | 610209 *** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 faster rcnn 改进 样本 目标 检测 方法 | ||
1.一种基于Faster RCNN改进的少样本目标检测方法,其特征在于,包括以下的步骤:
步骤1:将图像划分为支持集图像和查询集图像,其中支持集图像为少量几张包含目标样本的图像,其中样本已被标注,查询集包含未标注的样本,但其和支持集类别空间一致;
步骤2:将支持图像和查询图像输入权重共享的骨干网络进行特征提取,支持图像提取的特征定义为支持特征图,查询图像提取的特征定义为查询特征图;
步骤3:支持特征图和查询特征图分别通过CBAM(Convolutional Block AttentionModule)注意力模块生成对应的注意力特征图后,将得到的支持集注意力特征图进行均值池化和深度卷积,查询集注意力特征图进行深度卷积,再将新得到的两个结果进行深度互相关生成最终的注意力特征图,然后将注意力特征图输入区域候选网络(Region ProposalNetwork,RPN)网络生成查询候选框;
步骤4:将支持集注意力特征图和其真实的标签框经过ROI Pooling操作得到支持目标特征图,再将查询集注意力特征图和查询候选框经过ROI Pooling操作得到查询候选框特征图,再将支持目标特征图和查询候选框特征图送入全局-局部关系检测器进行特征匹配计算,以此得到相似度高的查询候选框特征图;
步骤5:将相似度高的查询候选框送入回归分支和基于余弦Softmax损失的分类器对目标对象进行定位和分类。
2.根据权利要求1所述的基于Faster RCNN改进的少样本目标检测方法,其特征在于,步骤3中CBAM注意力模块与RPN网络相结合形成CBAM-Attention-RPN网络,支持特征图和查询特征图先分别通过CBAM注意力模块,将得到的对应的注意力图进行均值池化和深度卷积操作,再将得到的两个结果做深度互相关以生成最终的注意力特征图。
3.根据权利要求1所述的基于Faster RCNN改进的少样本目标检测方法,其特征在于,步骤4中提出的全局-局部关系检测器,将支持注意力特征图和查询注意力特征图分别经过ROI Pooling操作后得到的支持目标特征图和查询候选框特征图进行全局-局部关系匹配,即采用全局关系和局部关系进行特征匹配,计算两者相似度并留下相似度高的查询候选框区域。
4.根据权利要求1所述的基于Faster RCNN改进的少样本目标检测方法,其特征在于,步骤5中采用基于余弦Softmax损失的分类器替换原有的Softmax分类器作为其分类分支,余弦Softmax损失如公式(3)所示,
其中,Lcos表示余弦Softmax损失;N是训练样本数,i={1,2,…,N}表示样本索引;C是类别数,j={1,2,…,C}表示类别索引,α表示比例因子,θyi,i和θj,i分别表示权重W的第yi列和第j列与第i个样本的输入特征xi之间的角度,yi表示xi对应的标签,Lcos以分类权重向量为中心聚拢同类样本特征,降低了类内方差,提高了对新类的检测精度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院光电技术研究所,未经中国科学院光电技术研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210311386.2/1.html,转载请声明来源钻瓜专利网。
- 上一篇:界面显示方法、装置、存储介质以及终端
- 下一篇:衣物处理设备