[发明专利]基于密度图与注意力机制融合的遥感图像目标检测方法在审
申请号: | 202111471860.X | 申请日: | 2021-12-03 |
公开(公告)号: | CN114299383A | 公开(公告)日: | 2022-04-08 |
发明(设计)人: | 娄渊胜;童雪帅 | 申请(专利权)人: | 河海大学 |
主分类号: | G06V20/10 | 分类号: | G06V20/10;G06V10/25;G06V10/26;G06V10/774;G06V10/80;G06V10/82;G06K9/62;G06N3/04 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 210024 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 密度 注意力 机制 融合 遥感 图像 目标 检测 方法 | ||
1.基于密度图与注意力机制融合的遥感图像目标检测方法,其特征在于,包括如下步骤:
步骤1:输入遥感图像,根据图像中物体的分布生成密度图并进行图片分割。
步骤2:将分割后的图片通过ImageNet数据集上预先训练的Resnet101进行自下而上的特征提取。
步骤3:采用改进的FPN特征金字塔通过横向连接分别连接Resnet101的特征层,自下至上的不同维度特征生成,自上至下的特征补充增强,低层特征图包含更多的位置信息,有利于定位的实现,而高层特征图包含更多的语义信息,更有利于分类的实现。
步骤4:引入注意力机制模块,水平连接FPN各特征层,在不引入过多参数的情况下获得较好的语义信息捕获能力。注意力机制模块包括跨通道注意块和坐标注意块,由两个注意块获得的权值乘以原始特征图。将两个特征图相加后,得到去噪网络。
步骤5:通过FPN的特征层,区域生成网络在每个尺度上根据预测中心点坐标和宽、高生成候选区域(x,y,w,h),x,y,w,h分别代表中心点的横坐标,纵坐标,宽和高;将候选区域进行池化操作,进一步提取降维后的候选区域特征,作为全连接层分类的输入。
步骤6:用Soft-NMS替换NMS,减少误检率。使用Soft-NMS进行交并比数据后处理,使用高斯加权函数找出最佳锚框;
其中,Si代表bi的得分,M是当前得分最高的锚框,bi是要处理的锚框。D代表最终检测锚框集,IOU表示交并比,即检测锚框与地真值的重叠率。fIOU(M,bi)是M和bi之间的交并比。fIOU(M,bi)越大,Si下降的越严重。
步骤7:将池化特征输入全连接层,输出目标的位置以及通过Softmax输出目标分类,通过平均精度(AP)和类平均精度(mAP)对目标的检测的性能进行评估。首先定义精度和召回率:
其中,当锚框与真实区域的面积交比大于0.7时,认为锚框是正确检测的目标框(TP),否则认为是错误检测的目标框(FP)。此外,如果该区域多个锚框和真正的区域面积的交并比大于0.7,只有面积最大的矩形框架交叉比率将被视为正确检测到目标框架(TP),其他矩形帧被认为是一个错误的检测帧(FP)。FN表示被错误判断为错误检测锚框的正确检测锚框的数量。
设置步长为0.1,并在recall=[0,0.1,0.2,...,1]时取相应的精度值。这些精度值的平均值为AP。mAP是计算所有类的AP的平均值。最终得到预测目标类别和坐标回归的精度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河海大学,未经河海大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111471860.X/1.html,转载请声明来源钻瓜专利网。