[发明专利]一种基于YOLOV3算法的铁轨弹条检测方法在审
申请号: | 202110226204.7 | 申请日: | 2021-03-01 |
公开(公告)号: | CN112949480A | 公开(公告)日: | 2021-06-11 |
发明(设计)人: | 厉小润;张楠;何钢迪;王森荣;王晶;林超;许国平;王建军;朱彬;鄢祖建 | 申请(专利权)人: | 浙江大学;中铁第四勘察设计院集团有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/32;G06K9/46;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 郑海峰 |
地址: | 310058 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 yolov3 算法 铁轨 检测 方法 | ||
1.一种基于YOLOV3算法的铁轨弹条检测方法,其特征在于,包括如下步骤:
S1:针对任一个检测点,在需要检测的铁轨一侧的固定位置设置摄像头,将摄像头的监控范围对准目标检测位置,实时拍摄目标检测位置处的铁轨弹条图像;
S2:采集样本图片,并对样本图像进行扩增,标注每一个样本图像中弹条的真实检测框和弹条的类别,所述的类别包括完整和缺失;将带标注的样本图像作为训练集;
S3:建立YOLOV3模型,利用步骤S2获得的训练集对模型进行训练,得到训练好的弹条检测模型;
所述的YOLOV3模型包括网络输入层、Darknet-53网络和多尺度预测层;将样本图像作为网络输入层的输入,得到统一尺寸的样本图像;利用统一尺寸的样本图像对Darknet-53网络进行训练,输出该样本图像的特征图;最后通过多尺度预测层对特征图采用三种尺度标注预测框,与真实预测框进行对比,输出预测框及置信度;
S4:通过摄像头实时采集每一个检测点处的铁轨弹条视频,从对应当前时刻的视频中等间隔提取m帧作为当前时刻的待检测图像,将待检测图像作为步骤S3得到的训练好的弹条检测模型的输入,得到检测结果,所述的检测结果包括弹条的类别和置信度;
S5:将当前时刻的m帧图像对应的检测结果取均值作为最终检测结果输出;
S6:重复步骤S4至步骤S5,执行下一时刻的铁轨弹条检测,实现铁轨弹条的实时检测。
2.根据权利要求1所述的基于YOLOV3算法的铁轨弹条检测方法,其特征在于,步骤S2中对样本图像进行扩增的方法包括:
2.1)随机剪裁:随机裁掉原始图像中的四角、中心或者上下部分,将裁剪后的图像作为新增样本图;
2.2)镜像翻转:对原始图像进行镜像翻转,将翻转后的图像作为新增样本图;
2.3)随机调节图像参数:随机调节原始图像的亮度、对比度,将调节后的图像作为新增样本图。
3.根据权利要求1所述的基于YOLOV3算法的铁轨弹条检测方法,其特征在于,步骤S2所述的真实检测框利用目标左上和右下两个点的坐标信息表示。
4.根据权利要求1所述的基于YOLOV3算法的铁轨弹条检测方法,其特征在于,所述的YOLOV3模型中的网络输入层将输入图像的尺寸大小调整为32的整倍数,优选为256x256。
5.根据权利要求4所述的基于YOLOV3算法的铁轨弹条检测方法,其特征在于,所述的YOLOV3模型中的Darknet-53对输入图像的处理过程为:
a)针对尺寸为256x256输入图像,首先经过一个3x3x32的卷积层输出256x256x32;
b)接着经过一个3x3x64,stride=2的卷积层输出为128x128x64;
c)经过一个残差块,输出为128x128x64;
d)过一个3x3x128,stride=2的卷积层输出为64x64x128;
e)2个残差块后输出为64x64x128;
f)经过一个3x3x256,stride=2的卷积层输出为32x32x256;
g)经过8个残差块,输出为32x32x256;
h)过一个3x3x512,stride=2的卷积层输出为16x16x512;
i)经过8个残差块后输出为16x16x512;
j)过一个3x3x1024,stride=2的卷积层输出为8x8x1024;
k)经过4个残差块后输出为8x8x1024;
l)经过池化全连接层以及sigmoid激活函数层输出最终的特征图及预测概率。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学;中铁第四勘察设计院集团有限公司,未经浙江大学;中铁第四勘察设计院集团有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110226204.7/1.html,转载请声明来源钻瓜专利网。