[发明专利]一种基于多尺度特征图的目标快速检测方法有效
申请号: | 201810417918.4 | 申请日: | 2018-05-04 |
公开(公告)号: | CN108510012B | 公开(公告)日: | 2022-04-01 |
发明(设计)人: | 何小海;单倩文;滕奇志;吴晓红;卿粼波;王正勇;余艳梅 | 申请(专利权)人: | 四川大学 |
主分类号: | G06V10/52 | 分类号: | G06V10/52;G06V10/80;G06V10/82;G06K9/62;G06N3/04 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 610065 四川*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 尺度 特征 目标 快速 检测 方法 | ||
本发明公开了一种基于多尺度特征图的目标快速检测方法。包括以下步骤:首先,通过卷积神经网络自动提取多尺度特征图,避免了传统方法中复杂的特征设计及提取过程。其次,考虑到不同卷积层学习到的特征表达各不相同,提出一种有效的特征图融合方法,并通过轻量级的压缩型双线性函数来实现,以提升特征图融合效率,丰富上下文信息。在此基础上,将多尺度特征图与通道注意机制结合,突出有用信息,抑制冗余信息,进一步增强特征图的表征能力。最后,将增强后的多尺度特征图用于目标检测,通过多次迭代训练得到最优模型。相比现有技术,本发明所提方法在提升检测精度的同时尽量降低时间成本,实现了目标的快速检测,在移动机器人、自动驾驶及智能视频监控等方面具有广阔的应用前景。
技术领域
本发明涉及一种基于多尺度特征图的目标快速检测方法,属于计算机视觉与智能信息处理领域。
背景技术
目标检测,作为其他高层视觉处理和分析任务的基础,一直是计算机视觉领域的核心问题之一,在移动机器人、自动驾驶以及智能视频监控系统等诸多方面具有重要的经济和实用价值,潜力巨大。针对海量的图像数据和动态变化的场景,高效地获取并识别各类感兴趣目标,实现精确而快速的目标检测,具有重要意义。
传统的目标检测方法依赖于人工设计特征,并将提取的特征输入分类器进行分类与识别。然而,人工设计特征存在诸多局限,如数据规模较小,泛化能力差,难以应用于复杂多变的实际场景等。近年来,深度学习,尤其是卷积神经网络在计算机视觉领域和自然语言处理领域的巨大成功,引发了学者浓厚的研究兴趣。随着一系列深度卷积神经网络的提出,如AlexNet、VGGNet、GoogLeNet、ResNet以及DenseNet等,目标检测方法的研究取得了飞跃性的进展。目前,基于深度学习的目标检测与识别方法大致分为两类:基于区域建议的方法和无区域建议的方法。基于区域建议的方法大致遵循区域建议、特征表示和区域分类三个步骤,包括R-CNN系列方法,取得了较高的检测精度,但计算复杂度相对较高,难以满足实时性的应用需求。无区域建议的方法一般采用回归的思想来检测边框位置及所属类别,主要包括YOLO、SSD等。无区域建议的方法突破了实时性方面的瓶颈,但是检测效果有限,对相互靠近的群体以及小目标检测精度不高。因此,如何在提高检测精度的同时兼顾速度,实现精确的目标快速检测,逐渐成为目标检测方向的研究趋势。
发明内容
本发明提出了一种基于多尺度特征图的目标快速检测方法,目的就在于为解决上述问题而提供一种精度较高的目标快速检测方法。
本发明通过以下技术方案来实现上述目的:
一种基于多尺度特征图的目标快速检测方法,包括以下步骤:
(1)初步提取多尺度特征图
本发明通过卷积神经网络模型提取多尺度特征图,模型主要包括两部分:一部分是用来初步提取特征的基础网络,采用VGG-16网络模型,包括从Conv1到Conv5的5组卷积层,及转换为卷积层的FC6和FC7,所有卷积层使用相同大小的卷积核;另一部分是末端添加的多个级联卷积层,用于提取不同尺度的卷积特征图。
(2)构建特征图融合模块
卷积神经网络通过不同的卷积核自行提取特征,将原始数据经过一些非线性变换转变为更高层次的、更加抽象的表达,再进行分类识别等。随着网络层数的加深,深层特征图的抽象能力更强,语义类别信息更丰富,而浅层特征图包含的细节信息更多,能很好地定位目标。本发明采用6组不同尺度的卷积特征图,还增加了基础网络中卷积层Conv5_3的特征图,并将其与FC7层特征图进行融合,以丰富上下文信息,增强特征图的表达能力。
(3)压缩型双线性融合方法
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川大学,未经四川大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810417918.4/2.html,转载请声明来源钻瓜专利网。