[发明专利]基于Faster R-CNN的药盒检测方法、介质、电子设备及系统在审
申请号: | 202210411831.2 | 申请日: | 2022-04-19 |
公开(公告)号: | CN114821556A | 公开(公告)日: | 2022-07-29 |
发明(设计)人: | 卞剑锋;迟文政;洪阳;刘杰;陈国栋;孙立宁 | 申请(专利权)人: | 苏州大学 |
主分类号: | G06V20/60 | 分类号: | G06V20/60;G06V10/40;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 苏州市中南伟业知识产权代理事务所(普通合伙) 32257 | 代理人: | 王广浩 |
地址: | 215000 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 faster cnn 检测 方法 介质 电子设备 系统 | ||
本发明公开了一种基于Faster R‑CNN的药盒检测方法、介质、电子设备及系统,该方法包括:S1、将Faster R‑CNN网络模型中的特征提取层替换为新的特征提取网络得到改进后的Faster R‑CNN网络模型;S2、对数据集中药盒图片进行标定;S3、利用标定后的数据集对改进后的Faster R‑CNN网络模型进行训练;S4、利用训练好的Faster R‑CNN网络模型对药盒进行检测。本发明通过将Faster R‑CNN网络模型中的特征提取层替换为新的特征提取网络,新的特征提取网络采用深度可分离卷积,以及带线性瓶颈结构的反向残差结构,在保证模型准确率的前提下,解决了模型训练过程中梯度消失、占用内存大的问题,有效提升了模型的实时性,使得本发明的药盒检测方法具有占用内存小、检测时效性好、检测准确率高的优点。
技术领域
本发明涉及药盒检测技术领域,特别涉及一种基于FasterR-CNN的药盒检测方法、存储介质、电子设备及系统。
背景技术
传统的目标检测算法有2001年诞生的V-J检测器,主要用于人脸的检测;2006年出现的HOG+SVM的方法,主要用于行人的检测;2008年出现的DPM算法。算法提取的特征主要围绕底层特征和中层次特征来展开,像颜色,纹理等。近几年来,目标检测算法取得了很大的突破。比较流行的算法可以分为两类,一类是基于RegionProposal的R-CNN系算法(R-CNN,FasterR-CNN,Faster R-CNN等),它们需要先算法产生目标候选框,也就是目标位置,然后再对候选框做分类与回归(two-stage)。而另一类是Yolo,SSD这类one-stage算法,其仅仅使用一个卷积神经网络CNN直接预测不同目标的类别与位置。第一类方法准确度高一些,但是速度慢,第二类算法速度快,但是准确性要低一些。
参照图1,为现有FasterR-CNN网络结构,其算法流程如下:
1、特征提取,把整张图片送入特征提取层(backbone),进行特征提取;
2、生成建议窗口,通过RPN,在最后一层卷积feature map上生成建议窗口(regionproposal),每张图片大约300个建议窗口;
3、池化,通过RoIpooling层使得每个建议窗口生成固定大小的feature map;
4、联合训练,利用Softmax Loss(探测分类概率)和Smooth L1 Loss(探测边框回归)对分类概率和边框回归(Boundingbox regression)联合训练。
其中,步骤1中选取了VGG16作为特征提取的神经网络模型,VGG16网络是14年牛津大学计算机视觉组和Google DeepMind公司研究员一起研发的深度网络模型。
VGG16详细说明如下:
1、一张原始图片被resize到(224,224,3)。
2、经过两次3x3的卷积网络,输出的特征层为64,输出为(224,224,64),再2X2最大池化,输出net为(112,112,64)。
3、经过两次3x3卷积网络,输出的特征层为128,输出net为(112,112,128),再2X2最大池化,输出net为(56,56,128)。
4、经过三次3x3卷积网络,输出的特征层为256,输出net为(56,56,256),再2X2最大池化,输出net为(28,28,256)。
5、经过三次3x3卷积网络,输出的特征层为256,输出net为(28,28,512),再2X2最大池化,输出net为(14,14,512)。
6、经过三次3x3卷积网络,输出的特征层为256,输出net为(14,14,512),再2X2最大池化,输出net为(7,7,512)。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州大学,未经苏州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210411831.2/2.html,转载请声明来源钻瓜专利网。