[发明专利]一种基于CPSNet与yolov3相结合的地铁安检方法在审
申请号: | 202011435160.0 | 申请日: | 2020-12-09 |
公开(公告)号: | CN112507873A | 公开(公告)日: | 2021-03-16 |
发明(设计)人: | 陈阳;柏杨;张柳 | 申请(专利权)人: | 东南大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 南京众联专利代理有限公司 32206 | 代理人: | 杜静静 |
地址: | 210096 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 cpsnet yolov3 相结合 地铁 安检 方法 | ||
本发明公开了一种基于CPSNet(csresnext‑panet‑spp)与yolov3相结合的地铁安检方法,将CPSNet融入到yolov3组成新的网络结构,利用自采集的地铁安检图像进行训练,将地铁安检图片中的危险物品及辅助检测物品标注并进行识别。本发明使用新型神经网络结构并实现对复杂地铁安检图像的智能识别。
技术领域
本发明涉及一种基于CPSNet与yolov3相结合的医学图像骨骼分割方法,属于计算机图像处理领域。
背景技术
目前的目标检测分为传统方法目标检测与深度学习方法目标检测。
传统目标检测方法主要分为三部分:滑动窗口,特征提取与分类器分类。给定一张图片,使用滑动窗口的方法对整幅图像进行遍历,进行候选框的提取,然后使用经典计算机视觉模式识别中的算法,如基于颜色,基于形状,基于纹理等对每个候选框中的局部信息进行特征提取,最后使用训练好的分类器对提取特征进行分类,在分类过程中,若只是单目标分类,只需要区别窗口所含对象是否为目标,若是多目标分类,则需要进一步区分对象类别。若存在检测框重叠的情况,使用非最大值抑制算法留下一个最佳框。最终输出的结果即为检测的目标。但传统目标检测存在两个主要问题,基于滑动窗口的区域选择策略时间复杂度高,候选框冗余,手工设计的特征使得分类器鲁棒性差,无法适应多样性变化。
随着深度学习在各个领域的不断发展与应用,卷积神经网络也逐渐应用在图像处理领域中。卷积神经网络在图像分类与图像特征的提取方面有着很好的效果,相对于传统目标检测方法卷积神经网络在检测准确率与精细度上有大幅的提升,其中yolov3就是其中一个优秀的神经网络。并且yolov3与其他检测网络相比,检测速度有很大的提升,但检测精度相对较低,为保证实时的同时保证准确率,使用注意力机制之相结合成新的网络进行特征提取与检测。
发明内容
为提高现有神经网络在图像中检测能力,本发明利用已经提出的性能优异的神经网络来搭建新型神经网络,提供一种基于卷积神经网络与CPSNet相结合的特征检测算法,提高检测精度。
本发明为解决上述技术问题采用以下技术方案:
本发明提供一种基于卷积神经网络与注意力机制相结合的特征检测算法,具体步骤如下:
步骤1,选取yolov3作为主网络,使用CPSNet代替原yolov3的darknet53的特征提取网络,组合起来搭建新的神经网络:以csresnext作为特征提取网络提取更完全的feature map,作为检测网络的输入;
步骤2,采用自采集图像作为训练样本,对步骤1中搭建的新的神经网络进行训练;
步骤3,采用步骤2中完成训练的新的神经网络进行目标检测。
作为本发明的进一步技术方案,yolov3网络使用预训练的csresnext-panet-spp模型来进行初始特征图的生成。
作为本发明的进一步技术方案,yolov3的检测部分使用特征金字塔结构和panet模块和spp模块,spp模块可以实现不同感受野特征输出,panet将低层特征融入高层特征,融合多尺度特征,达到更好的检测效果。
作为本发明的进一步技术方案,步骤2中的训练样本为若干图像及其对应危险物品检测结果。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:本发明利用现有的神经网络yolov3与CPSNet结合来搭建新的神经网络,yolov3的优势在于使用特征金字塔结构,融合多尺度特征,达到更好检测效果;CPSNet具有更好的特征提取网络,能够提取更完全的特征,并且其中的panet模块可以将低层特征融入高层特征,spp模块可以实现不同感受野特征输出,提高检测精度。为了充分结合两者的优势,新的神经网络结构保留了特征金字塔结构并将新网络的输出送入检测网络中。本发明相对于原始yolov3在检测效果以及各项性能度量值中都有一定的提升。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东南大学,未经东南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011435160.0/2.html,转载请声明来源钻瓜专利网。