[发明专利]一种基于区域候选网络的目标检测方法及系统有效
申请号: | 201910519737.7 | 申请日: | 2019-06-17 |
公开(公告)号: | CN110348435B | 公开(公告)日: | 2022-06-07 |
发明(设计)人: | 袁志勇;林啓峰;赵俭辉 | 申请(专利权)人: | 武汉大学 |
主分类号: | G06V10/25 | 分类号: | G06V10/25;G06N3/04;G06T7/11;G06T7/136;G06T7/194 |
代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 魏波 |
地址: | 430072 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 区域 候选 网络 目标 检测 方法 系统 | ||
本发明公开了一种基于区域候选网络的目标检测方法及系统,首先采集遥感数据集,并划分为训练集、验证集和测试集;然后生成包含感兴趣对象的裁剪区域;接着执行每个剪裁区域的对象检测;最后合并多个裁剪区域的检测结果,并去除冗余检测结果,得到最后检测结果。本发明可以快速定位感兴趣区域,并能同时检测极大尺度目标和极小尺度目标的双尺度训练策略,从而在有限的资源下,高效地对大尺度遥感图像进行对象检测;本发明提出的一种基于模块化设计的裁剪区域网络CRPN,包含弱语义RPN(弱语义特征抽取网络和基于弱语义特征的RPN网络)与剪裁区域生成算法,其可以与传统的目标检测网络(如:Faster RCNN)相结合,实现大尺度遥感图像的高性能对象检测。
技术领域
本发明属于图像识别技术领域,尤其涉及一种基于区域候选网络的目标检测方法计系统,能够在GPU内存有限的情况下实现对大尺度遥感图像的高性能目标检测。
背景技术
地理空间目标的检测是遥感图像分析和理解的基础和难点问题。近期,深度学习显著提高了各种图像处理技术的性能,卷积神经网络(CNN)的目标检测器已经达到了当前最好的水平。然而,由于自然图像和遥感图像存在明显的差异,这些目标检测方法很难在遥感图像中有同样出色的表现。
遥感图像的尺度通常比较大,由于硬件的限制,目标检测算法不能直接对整个图像进行检测。对这种大尺度图像进行目标检测的方法通常有两种。一种方法是缩小图像,但这种操作会进一步缩小微小目标的尺寸,大大降低检测小目标的能力。另一种方法是将图像裁剪成许多小块进行分块检测,但这会影响检测精度,因为大目标可能被分到不同的分块中。另外,由于在遥感图像中通常存在大面积的非感兴趣区域。若对整个图像进行处理,这些无用区域的检测将会浪费有限的计算资源和存储空间。
遥感图像中物体像素大小因类别不同而存在差异。比如DOTA数据集中,一个桥的可能有1200个像素那么大,而一个小型车辆可能只有10个像素点那么大。由于尺度范围太大,现有的检测模型不够灵活,无法同时处理非常微小和巨大的目标。在Faster RCNN及其CNNs变体中,区域候选网络(RPN)的锚定尺寸通常为(642,1282,2562)或者(1282,2562,5122),热门目标检测网络YOLO及其相关升级网络中网格单元的预测尺寸也被限制在一个合适的预测框尺度范围内。还有其他一些方法,其检测范围在32-512之间,但仍不能覆盖遥感对象的尺度分布。因此,传统的方法不适合直接用于遥感图像中尺度范围较大的地理空间目标的检测。
发明内容
为了有效地对大尺度遥感图像进行目标检测,本发明提出了一种有效的目标检测方法及系统,以能够在GPU内存有限的情况下实现对大尺度遥感图像进行高性能目标检测。
本发明的方法所采用的技术方案是:一种基于区域候选网络的目标检测方法,其特征在于,包括以下步骤:
步骤1:采集遥感数据集,并划分为训练集、验证集和测试集;
步骤2:生成包含感兴趣对象的裁剪区域;
步骤3:执行每个剪裁区域的对象检测;
步骤4:合并多个裁剪区域的检测结果,并去除冗余检测结果,得到最后检测结果。
作为优选,步骤2的具体实现包括以下子步骤:
步骤2.1:通过弱语义特征抽取网络生成只考虑前景和背景语义及定位功能的弱语义特征,同时基于弱语义特征来进行区域假设;
在弱语义特征抽取网络中,通过削减每个卷积层的通道数来简化特征表达能力,其中弱化的特征图仅保留对感兴趣对象ROI整体定位能力及边界锁定能力,以及区分前景和背景语义,而不考虑ROI所属的具体类别语义;每个卷积层通道数减少到传统特征抽取网络的相应地,弱语义特征抽取网络的损失函数定义为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学,未经武汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910519737.7/2.html,转载请声明来源钻瓜专利网。