[发明专利]一种快递包裹条形码快速检测方法有效
申请号: | 201910197753.9 | 申请日: | 2019-03-15 |
公开(公告)号: | CN110046650B | 公开(公告)日: | 2021-05-28 |
发明(设计)人: | 许绍云;易帆;李功燕 | 申请(专利权)人: | 中科微至智能制造科技江苏股份有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04 |
代理公司: | 无锡市大为专利商标事务所(普通合伙) 32104 | 代理人: | 曹祖良 |
地址: | 214105 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 快递 包裹 条形码 快速 检测 方法 | ||
本发明公开了一种快递包裹条形码快速检测方法,包括:构建级联多尺度特征融合网络,所述特征融合网络包括依次连接的特征缩减网络和特征保持网络;将快递包裹条形码图像输入所述特征融合网络,通过卷积提取得到特征图;将所述特征图输入检测模块,对所述特征图进行分类和坐标回归,得到检测结果。本发明在准确度和速度方面具有明显优势,能够较好地解决实际应用中条形码检测问题。在其他实际运用环境中可结合具体需求自定义特征缩减网络、特征保持网络中特征融合层的数量,具有普适性。
技术领域
本发明涉及深度学习、图像处理技术领域,具体涉及一种快递包裹条形码快速检测方法。
背景技术
图像处理技术是实现条形码检测的有效途径。传统图像算法要求在相对理想的物理环境下,通常采用提取条形码边缘纹理特征信息,或借助形态学处理算法腐蚀膨胀获得条形码区域,或采用霍夫变换算法检测条形码边缘直线等方法实现检测。传统图像算法对检测环境要求较高,往往在特定物理环境下才能实现较好的检测效果。但在现实中,在物流包裹自动分拣场景下,由于光照条件、现场环境等影响,采集到的图片质量参差不齐,比如光照变化剧烈、背景干扰复杂、条形码扭曲形变、条形码目标小等容易造成误检和漏检,导致条形码检测难度提升。因此,研究高可靠、强稳定的条码检测定位方法,对实现复杂环境下物流包裹的高效自动分拣具有重要意义。
深度学习不同于传统图像算法需要手工设计特征,其可通过自学习提取相关特征,并能将特征提取、筛选、分类等任务融合在一个网络中进行优化,具备显著优势。特别地,卷积神经网络针对图像识别、图像理解、目标检测、语义分割等任务实现了远超传统图像算法的解决功能,并且凭借良好的鲁棒性能够适用于任何场景任务。
卷积神经网络的目标检测模型主要分为两种:一种是以Faster-Rcnn为代表的基于候选区域的two-stage检测器,其原理是先使用深度卷积神经网络来获取图片的特征图,再将特征图通过区域提议网络(Region Proposal Network,RPN)生成候选区域,并结合分类器、边界回归器以及非极大值抑制算法等对候选区域进行分类和调整,进而获取有效目标;另一种是以YOLO和SSD为代表的基于回归的one-stage检测器,主要原理是选取输出层或者中间层的特征图直接进行分类和坐标回归。与two-stage检测器不同,基于回归的one-stage检测器省略了区域提议网络生成候选区域过程,直接将目标识别和目标判定融合在一起,较大程度节省了计算成本和时间消耗,对实现实时的端到端的目标检测具有重要作用。
发明内容
本发明的目的是通过以下技术方案实现的。
具体的,本发明提供了一种快递包裹条形码快速检测方法,包括:
构建级联多尺度特征融合网络,所述特征融合网络包括依次连接的特征缩减网络和特征保持网络;
将快递包裹条形码图像输入所述特征融合网络,通过卷积提取得到特征图;
将所述特征图输入检测模块,对所述特征图进行分类和坐标回归,得到检测结果。
优选的,所述特征缩减网络用于特征图尺寸缩减和特征信息提取;所述特征保持网络用于特征语意信息融合。
优选的,所述特征缩减网络包括多个特征融合模块,每个特征融合模块由3个3x3卷积层组成,所述特征融合模块的输出由所述3个卷积层卷积之后的特征图进行拼接获得,通过转置卷积上采样第二个和第三个3x3卷积层来调整特征图尺寸大小相同,进而完成拼接。
优选的,所述特征保持网络包括多个特征融合模块,每个所述特征融合模块由3个3x3膨胀卷积层组成,所述3个膨胀卷积层的卷积结果直接拼接输出同等尺寸的特征图。
优选的,进一步包括:在相邻特征融合模块之间加入一个1x1卷积压缩层,对特征融合模块输出后的特征图数量进行缩减。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中科微至智能制造科技江苏股份有限公司,未经中科微至智能制造科技江苏股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910197753.9/2.html,转载请声明来源钻瓜专利网。