[发明专利]一种基于区域提名的小目标检测方法有效
申请号: | 201810456924.0 | 申请日: | 2018-05-14 |
公开(公告)号: | CN108830280B | 公开(公告)日: | 2021-10-26 |
发明(设计)人: | 张宇;郑冬云;郭炜强;郑波;关健创 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06K9/46 | 分类号: | G06K9/46;G06K9/36;G06N3/04 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 冯炳辉 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 区域 提名 目标 检测 方法 | ||
本发明公开了一种基于区域提名的小目标检测方法,包括步骤:1)输入图像预处理,将输入图像转换为统一大小;2)提取图像基础特征图,提取5层特征图;3)特征融合,融合图像第4层与第5层特征图;4)小目标区域提名,使用区域提名网络产生小目标区域提名;5)小目标边界框精修以及小目标区域分类。本发明方法具有计算速度快,小目标识别精度高,方法的泛化性能好,对于一般的极小目标区域都能检测出等优点。
技术领域
本发明涉及图像处理的技术领域,尤其是指一种基于区域提名的小目标检测方法。
背景技术
目标检测是指从图像中精确的定位出图像中所含有的物体,并识别出物体的类别的过程。而小目标检测是指定位和识别出图像中只含有数量较少像素点的物体。小目标检测在无人驾驶路标识别、安防领域私人携带物品识别等领域有着极高的应用前景。
具体的,目标检测是要从图像中找出图像所包含的所有物体的位置、大小以及类别。现有的目标检测方法有基于区域的卷积神经网络RCNN、Fast-RCNN、Faster-RCNN系列神经网络以及端到端的卷积神经网络网络SSD、YOLO系统神经网络。
Faster-RCNN是RCNN系列卷积神经网络的最新研究成果,faster-RCNN整体结构为先由底层卷积神经网络提取特征,方法的提出者共使用了2种卷积神经神经网络(ZFNet,VGG16)的前几层作为底层特征提取网络。再将提取到的特征传入到RPN(区域提名网络)产生若干大小区域提名,接下来分别对提名的区域进行分类得到目标所属类别以及回归得到目标的边界框。
SSD和YOLO都是基于端到端的方法进行目标检测,即由单个卷积神经神经网络直接预测目标边界和类别概率,速度有极大提高。
上述的这两类不同的方法均存在着不足,首先,以上的几种现有目标检测方法都是针对大目标检测,而且它们也只能检测出图像中的大目标,甚至在检测大目标时也会存在误差,无法高效准确的检测出图像中的小目标。这里所指的大目标检测是指目标在图像中包含像素比较多。在Faster-RCNN中需设置区域提名网络中提名区域的边界范围大小,在方法提出者以及其他研究人员的实践中,提名区域的尺寸大小均设置为128X128、256X256、512X512,即检测出来的目标大小基本在设置的这几个提名区域范围之内。同时SSD和YOLO也不是专门用于检测小目标的神经网络,它们的特点是由于采用端到端的方案,只使用单个卷积神经网络进行计算,虽具有速度高效,即检测速度快的优点,但准确率没有基于区域提名的目标检测方法高,检测出来的目标区域定位误差大。特别的,YOLO对稍微小一点的目标完全无法检测出来。
首先目前的计算机图像文件大小一般都为500万像素以上,但小目标通常只包含有极少的像素,例如自动驾驶中公路上的较远的交通标识、安防领域中的行李检测中的小匕首、子弹等目标本身体积较小,在计算机图像中所占有的像素点就更小。小目标的信息在整张图像占有的范围极其有限。
再者,当图像经过深度卷积神经网络提取特征后,浅层特征图维度够大,包含较多小目标信息,但是特征图中包含的信息多是背景信息,有用的语义信息不多。高层特征图语义很丰富,背景噪音少,但是经过多层的卷积、池化操作,特征图维度已经变得很小,小目标信息在高层特征图中占有范围也变的很小。原本小目标在原始图像中所占有的像素就不多,在经过多层深度卷积后体现在高层次特征图就只包含有极小的一部分特征数据,甚至还有可能被前面的卷积层过滤掉了。因此,图像小目标的检测难度很大。
发明内容
本发明的目的在于克服现有技术的不足,提出了一种基于区域提名的小目标检测方法,可以有效的检测出图像中的小目标,并且神经网络结构复杂性低,计算速度高效,针对小目标的特性进行专门优化,使得检测出的小目标更加精确高效。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810456924.0/2.html,转载请声明来源钻瓜专利网。