[发明专利]一种全自动避雷器检测与跟踪方法有效
申请号: | 202011386930.7 | 申请日: | 2020-12-02 |
公开(公告)号: | CN112581386B | 公开(公告)日: | 2022-10-21 |
发明(设计)人: | 罗威;高俊彦;余田甜;朱亦曼;郑先杰;郭毓;吴益飞;郭健;吴巍 | 申请(专利权)人: | 南京理工大学 |
主分类号: | G06T5/00 | 分类号: | G06T5/00;G06N3/04 |
代理公司: | 南京理工大学专利中心 32203 | 代理人: | 王安 |
地址: | 210094 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 全自动 避雷器 检测 跟踪 方法 | ||
1.一种全自动避雷器检测与跟踪方法,其特征在于,包括以下步骤:
步骤1、采集避雷器的图像制作数据集,训练用于检测避雷器的改进Yolov3网络M1,具体为:
步骤1-1、采集避雷器的图像制作数据集;
步骤1-2:训练改进YOLOv3网络,改进YOLOv3网络M1中的特征提取层采用的是DarkNet-53卷积层,增加CBAM注意力模型增强目标信息;增设一层预测层,使YOLOv3网络M1的先验框数目增加至12层,适应更多尺度的目标检测;利用K-means聚类算法计算用于框选目标的12种先验框尺寸;
步骤1-3:将避雷器的图像作为输入,预测图像中避雷器的位置信息;
步骤1-4、根据损失函数GIoU计算YOLOv3网络M1预测结果与真实值之间的误差,进而调整YOLOv3网络M1参数Wi,具体为:
α=0.95i·α0
其中,预测结果的目标框与真实框面积交为I,面积并为U,最小包围面积为AC,IoU为交并比,α是学习率,初始学习率α0=0.01,通过调整YOLOv3网络M1参数Wi使得损失函数GIoU的值变小,训练的准确性提高;
步骤2、利用公开的数据集训练基于SiamMask的通用视频目标跟踪网络M2;
步骤3、采集实时图像数据流,选取一帧图像A作为初始帧;
步骤4、对图像A进行高斯平滑处理,从而消除局部区域存在的噪点;
步骤5、利用网络M1对图像A进行预测,获得目标中心点在图像中的坐标(x,y)、目标框的宽度w与高度h以及置信度acc;
步骤6、判断置信度是否满足高于阈值要求,若满足,进行步骤7,若不满足,则返回步骤3;
步骤7、将网络M1的预测输出进行紧缩化,作为网络M2的输入,对之后的每一帧进行预测,记录预测中心点的轨迹。
2.根据权利要求1所述的全自动避雷器检测与跟踪方法,其特征在于,步骤3中的图像尺寸为1280*720,采集帧率高于30fps,初始帧中的目标尺寸占整个图像的比重大于10%。
3.根据权利要求1所述的全自动避雷器检测与跟踪方法,其特征在于,步骤4中对图像进行高斯平滑处理中的高斯系数δ=0.8。
4.根据权利要求1所述的全自动避雷器检测与跟踪方法,其特征在于,步骤5中的(x,y)在以图像中心为中心的960*540像素的区域内。
5.根据权利要求1所述的全自动避雷器检测与跟踪方法,其特征在于,步骤6中的置信度阈值为0.7。
6.根据权利要求1所述的全自动避雷器检测与跟踪方法,其特征在于,步骤7中对之后的每一帧进行预测,记录预测中心点的轨迹具体包含以下步骤:
步骤7-1、紧缩化因子选为0.9;
步骤7-2、将预测的中心坐标(x,y)与紧缩化之后的宽w'及高h'所构成的目标预测框转化为由中心点(x',y')与宽w'及高h'构成的目标框,具体为:
w'=0.9w,h'=0.9h
步骤7-3、将新的目标框信息输入到SiamMask网络M2中,对后续帧进行预测,并记录预测中心点的轨迹。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京理工大学,未经南京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011386930.7/1.html,转载请声明来源钻瓜专利网。