[发明专利]基于多尺度特征和扩张型逆残差全连接的目标检测方法有效
申请号: | 202110022941.5 | 申请日: | 2021-01-08 |
公开(公告)号: | CN112733848B | 公开(公告)日: | 2022-11-04 |
发明(设计)人: | 丁鹏;戚志刚;晏谢飞;惠新成;朱刚;蒋保富;刘韵 | 申请(专利权)人: | 中国电子科技集团公司第二十八研究所 |
主分类号: | G06V10/25 | 分类号: | G06V10/25;G06V10/764;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 江苏圣典律师事务所 32237 | 代理人: | 胡建华 |
地址: | 210000 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 尺度 特征 扩张型 逆残差全 连接 目标 检测 方法 | ||
本发明公开了一种基于多尺度特征和扩张型逆残差全连接的目标检测方法。首先,本发明提出一种基于多尺度特征的主体网络改进方法,该方法组合了深度卷积层的深层次特征和浅层次特征并设计了一种平衡两者之间比例的方式;其次,提出一种扩张型逆残差全连接模块,该模块采用“逆残差”+“扩张”的方式进行特征提取和输出,可以在很大程度上提升“逆残差”全连接模块效率,属于图像处理和人工智能技术领域。本发明无论速度上还是精度上都有很好的性能,极具应用价值。
技术领域
本发明属于图像处理和人工智能技术领域,特别涉及一种基于多尺度特征和扩张型逆残差全连接的目标检测方法。
背景技术
经典的基于深度卷积神经网络的目标检测方法Faster R-CNN是一种非常优秀的目标检测算法,但是也存在一些不足,主要体现在:1、目标检测速度较慢尤其是使用全卷积深度卷积神经网络时速度非常慢;2、小尺度目标检测的精度不高。为了改善Faster R-CNN的性能,国内外很多优秀的学者尝试采用多尺度特征层如Hyper-Net,FPN等方法提升Faster R-CNN检测的精度,但是这些方法都有没提到如何更好的平衡不同层次特征之间的比例,对不同大小目标尺度适应性不够,且Hyper-Net虽结合了不同层次的特征但实际上还是利用一个输出特征层进行目标检测。此外,另一种经典的基于深度卷积神经网络的目标检测方法R-FCN采用位置敏感的候选区域采样方法选择输出特征层中位置信息较强的通道进行目标细分类和定位,但是它忽视很多有利于分类的信息,而申请号为202010102354.2的专利申请公开了一种结合定位信息和分类信息的方法,虽在提出逆残差全连接的基础上很好的利用了位置敏感的候选区域采样方法进行综合检测定位和分类两个方面,但设计的逆残差模型过于紧凑,忽视了信息扩张的作用,无法更好的发挥逆残差全连接模型的作用,虽然在也有全连接层置于逆残差全连接之后,但是其更主要的是用于融合PSROI-Pooling层和ROI-Pooling层输出后经过处理的特征。
发明内容
发明目的:本发明所要解决的技术问题是针对现有技术的不足,提供一种基于多尺度特征和扩张型逆残差全连接的目标检测方法。
为了解决上述技术问题,本发明公开了一种基于多尺度特征和扩张型逆残差全连接的目标检测方法,步骤如下:
步骤1,微调全卷积神经网络,构建主体网络,所述主体网络对输入图像进行处理后获得输入图像的多尺度特征;所述多尺度特征包括浅层特征和深层特征;
步骤2,基于所述主体网络构建多尺度特征结合模块,所述多尺度特征结合模块能够对输入图像的深层特征降维和多尺度特征合并,所述深层特征降维后获得输入图像的第一输出特征;
步骤3,构建多尺度特征比例平衡模块,所述多尺度特征比例平衡模块能够平衡多尺度特征之间的比例;将步骤2中多尺度特征合并后的特征输入多尺度特征比例平衡模块,获得输入图像的第二输出特征;
步骤4,结合输入图像的第一输出特征和第二输出特征对输入图像进行不同尺度目标的预检测以区分目标、背景以及初步的目标定位;
步骤5,对输入图像的第一输出特征和第二输出特征分别进行特征池化,获得输入图像的第一池化特征和第二池化特征,将第一池化特征和第二池化特征进行拼接获得第三池化特征;
步骤6,构建扩张型逆残差全连接模块,所述扩张型逆残差全连接模块能够根据不同尺度目标的预检测结果和第三池化特征对输入图像进行目标细定位和分类;
步骤7,设定损失函数进行反向传播训练,利用训练后的模型进行目标检测。所述设定损失函数的方法具体参见申请号为202010102354.2的专利申请中公开的设定损失函数的方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国电子科技集团公司第二十八研究所,未经中国电子科技集团公司第二十八研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110022941.5/2.html,转载请声明来源钻瓜专利网。