[发明专利]一种基于级联下采样卷积神经网络的图像识别方法有效
申请号: | 202010640272.3 | 申请日: | 2020-07-06 |
公开(公告)号: | CN111832641B | 公开(公告)日: | 2021-08-27 |
发明(设计)人: | 徐国保;龙海旭;郭锦嘉;冯奕帆;刘阳;赵霞;王骥;李锦锐;陈泽林 | 申请(专利权)人: | 广东海洋大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 北京东方盛凡知识产权代理事务所(普通合伙) 11562 | 代理人: | 谢秀娟 |
地址: | 524088 *** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 级联 采样 卷积 神经网络 图像 识别 方法 | ||
本发明公开一种基于级联下采样卷积神经网络的图像识别方法,包括:基于级联下采样卷积神经网络构建图像识别模型;所述基于级联下采样卷积神经网络包括主体网络和两个独立预测网络;所述主体网络包括若干个卷积层和若干个级联下采样块;每个所述独立预测网络包括类别预测子网络和边界框预测子网络;所述独立预测网络的预测结果通过非极大值抑制得到图像识别结果;对构建的图像识别模型进行训练,通过训练好的图像识别模型进行图像识别。本发明能够对图像进行实时准确识别。
技术领域
本发明涉及图像识别技术领域,特别是涉及一种基于级联下采样卷积神经网络的图像识别方法。
背景技术
随着计算机视觉的不断发展,工业检测、车流量计数和自动驾驶等领域也随之发展,而这些领域中最重要的技术就是图像识别,即对图像中的目标进行实时检测。目前大多数图像识别的方法都是基于深度卷积神经网络,并且采用滑窗的形式来对图片做特征提取。深度学习最早的成功是Yann LeCun成功地将深度学习应用于手写体数字识别。基于深度神经网络的图像识别方法已经在各个数据集(例如,ImageNet、Pascal VOC)上取得不错的效果,但是在MSCOCO数据集上的检测精度仍然较低,这为图像识别方法应用到自动驾驶等要求精度较高的场景带来了很大的困难。基于YOLO的图像识别方法以Pascal VOC2012为基准测试集,平均准确率(mAP)为57.9%,并在Nvidia Titan X GPU上运行的速度达45FPS(Frames Per Second)。基于SSD300的图像识别方法在相同条件下的平均准确率为72.4%,速度达59FPS。显然,虽然实现了对图像中目标的实时检测,但是精度还远远未能可靠地应用到工业界中。
先进的图像识别方法主要分为基于One-Stage算法和基于Two-Stage算法两大类。One-Stage算法包括YOLO、SSD以及RetinaNet等,Two-Stage算法包括SPP、Faster-RCNN等;但是这些算法在下采样的时候都仅仅是使用了某一种池化或者步长为2的卷积层,比如YOLO算法只使用了核为2×2,步长为2的最大池化层作为下采样方式,而SPP、Faster-RCNN则在某些层使用了RoI pooling作为下采样方式,但是这种下采样方式和普通池化方式并没有本质上的区别,同样都固定了神经网络的感受野,难以保证图像识别精度。
发明内容
本发明的目的是提供一种基于级联下采样卷积神经网络的图像识别方法,以解决现有技术中存在的技术问题,能够对图像进行实时准确识别。
为实现上述目的,本发明提供了如下方案:本发明提供一种基于级联下采样卷积神经网络的图像识别方法,包括如下步骤:
基于级联下采样卷积神经网络构建图像识别模型;所述基于级联下采样卷积神经网络包括主体网络和两个独立预测网络;所述主体网络包括若干个卷积层和若干个级联下采样块;每个所述独立预测网络包括类别预测子网络和边界框预测子网络;所述独立预测网络的预测结果通过非极大值抑制得到图像识别结果;
对构建的图像识别模型进行训练,通过训练好的图像识别模型进行图像识别。
优选地,所述主体网络还包括若干个残差块,所述残差块用于计算所述卷积层的层数;所述残差块采用Bottleneck构建残差网络;所述Bottleneck的结构包括两个卷积核大小为1×1的卷积层、1个卷积核大小为3×3的卷积层和两个激活函数。
优选地,所述级联下采样块的下采样层同时使用大小不同的若干种卷积核;每个下采样层同时采用最大池化和卷积层两种下采样方式,对不同卷积核大小的下采样层得到的特征图进行相加,每个下采样层通过最大池化和卷积层两种下采样方式得到的特征图采用拼接的方式拼接到一起。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广东海洋大学,未经广东海洋大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010640272.3/2.html,转载请声明来源钻瓜专利网。