[发明专利]基于拟反馈神经网络的多级骨干网络检测通用物体的方法有效
申请号: | 201910058187.3 | 申请日: | 2019-01-22 |
公开(公告)号: | CN109902800B | 公开(公告)日: | 2020-11-27 |
发明(设计)人: | 刘玉栋;王勇涛;汤帜 | 申请(专利权)人: | 北京大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06K9/00 |
代理公司: | 北京万象新悦知识产权代理有限公司 11360 | 代理人: | 黄凤茹 |
地址: | 100871*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 反馈 神经网络 多级 骨干 网络 检测 通用 物体 方法 | ||
本发明公布了一种基于多级骨干网络的通用物体的检测方法,建立基于拟反馈神经网络的多级骨干网络,利用多个骨干网络之间的连接,在深度神经网络中模拟反馈机制,从而增强通用物体特征的提取,提高物体检测的精度。本发明可应用于多种物体检测器,被应用的检测器的骨干网络采用本发明提供的多级骨干网络,而检测器其他部分的网络结构不需要改变,方法简单方便,且物体检测精度高。
技术领域
本发明属于物体检测技术领域,涉及计算机视觉及深度学习技术,尤其涉及一种基于拟反馈神经网络的双骨干网络的通用物体的检测方法。
背景技术
通用物体检测是计算机视觉领域里最基本的任务之一,它在实际生活中有着非常广泛的应用,如自动驾驶、智能视频监控、遥感技术等。这些年来,基于深度神经网络的飞速发展,通用物体检测取得了很大的进展。
目前,基于深度学习的通用物体检测器分为两类,一类是单阶段检测器,例如SSD(SSD:Single Shot MultiBox Detector),RetinaNet(Focal Loss for Dense ObjectDetection)。另一类是两阶段检测器,例如FasterR-CNN(Faster R-CNN:Towards Real-Time Object Detection with Region Proposal Networks),FPN(Feature PyramidNetworks for Object Detection),MaskR-CNN,CascadeR-CNN(Cascade R-CNN:Delvinginto High Quality Object Detection)等。
然而,上述检测器都采用单向的前馈神经网络对通用物体进行检测,在网络的训练和测试中,特征直接经过整个前馈网络并输出,网络没有包含反馈的机制。这是由于深度神经网络的梯度下降法基于反向传播机制,在网络的连接中不能存在环路;但是,人类的视觉系统中存在着反馈回路,反馈机制可以给提取的特征进行纠错,并进一步增强特征的提取。因此,现有采用单向前馈神经网络的检测器用于通用物体检测,技术上还存在一定的瓶颈,检测准确性和精度均受限。
发明内容
为了克服上述现有技术的不足,本发明提供一种基于拟反馈神经网络的多级骨干网络的通用物体的检测方法,建立基于拟反馈神经网络的多级骨干网络,利用多个骨干网络之间的连接,在深度神经网络中模拟反馈机制,从而增强通用物体特征的提取,提高物体检测的精度。
本发明的技术方案是:
一种基于拟反馈神经网络的多级骨干网络的通用物体的检测方法,建立基于拟反馈神经网络的多级骨干网络,利用多个骨干网络之间的连接,在深度神经网络中模拟反馈机制,从而增强通用物体特征的提取,提高物体检测的精度;包括如下步骤:
1)建立基于拟反馈神经网络的多级骨干网络。
多级骨干网络的个数可以是2,3…,这些骨干网络的结构相同,它们可以是ResNet(残差网络)或ResNeXt(多支路的残差网络);
每个骨干网络包含多个(一般是4个)卷积块(或称骨干网络阶段),每个阶段内包含多个卷积层。
将每个骨干网络的每个阶段的输出作为输入送入下一级骨干网络的相同阶段,形成拟反馈的连接。
拟反馈连接的结构包含一个1×1卷积层和一个上采样操作;1×1卷积层将上一级骨干网络某个阶段的输出特征的通道数与下一级骨干网络对应的阶段的输入特征的通道数对齐,上采样操作将相邻两级骨干网络的这两个阶段的特征的空间大小对齐。最低阶段的拟反馈连接不需要上采样操作,因为它的输入特征和输出特征的空间大小是相同的。
将最后一级骨干网络的输出作为多级骨干网络的输出。
2)输入待检测的通用物体图像到检测器,如MaskR-CNN,CascadeR-CNN等;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京大学,未经北京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910058187.3/2.html,转载请声明来源钻瓜专利网。