[发明专利]基于相对位置感知的高铁接触网防鸟刺识别方法及系统在审
申请号: | 202211355480.4 | 申请日: | 2022-11-01 |
公开(公告)号: | CN115511876A | 公开(公告)日: | 2022-12-23 |
发明(设计)人: | 赵宏伟;邬俊;王卓 | 申请(专利权)人: | 北京交通大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06V10/764;G06V10/766;G06V10/774;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 北京市商泰律师事务所 11255 | 代理人: | 邹芳德 |
地址: | 100044 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 相对 位置 感知 接触 网防鸟刺 识别 方法 系统 | ||
1.一种基于相对位置感知的高铁接触网防鸟刺识别方法,其特征在于,包括:
获取高铁接触网巡检图像;
利用预先训练好的目标检测模型,对获取的所述高铁接触网巡检图像进行处理,得到防鸟刺识别结果;其中,所述预先训练好的目标检测模型由训练集训练得到,所述训练集包括多张高铁接触网巡检图像以及标注所述高铁接触网巡检图像中防鸟刺的标签。
2.根据权利要求1所述的基于相对位置感知的高铁接触网防鸟刺识别方法,其特征在于,所述目标检测模型的训练过程包括:采集高铁接触网巡检图像,得到原始数据集;对原始数据集中的高铁接触网巡检图像进行手工标注,得到标记样本集;设定模型的网络结构;设定模型的输出锚框样式;设定模型的损失函数;基于上述设定,利用标记样本集,根据模型输出与真实标记,运用随机梯度下降算法优化模型的损失函数,得到最优的模型参数。
3.根据权利要求2所述的基于相对位置感知的高铁接触网防鸟刺识别方法,其特征在于,所述目标检测模型设定的网络结构包括:
骨干网络,用于获取输入图像的多层次特征金字塔,其中浅层金字塔对应图像的初级视觉特征,顶层金字塔对应高级语义特征;
颈部网络,通过跨层次特征交叉,提升金字塔表征能力,使得每层金字塔兼具初级视觉特征和高级语义信息;
头部网络,根据提升后的特征金字塔,预测图像中防鸟刺部件及其边界框。
4.根据权利要求2所述的基于相对位置感知的高铁接触网防鸟刺识别方法,其特征在于,对原始数据集中的高铁接触网巡检图像进行手工标注,包括:对巡检图像中的腕臂支撑装置和防鸟刺两类目标进行手工标注,保存为独立的标注文件,与巡检图像一起构成标记样本集;其中,标注文件记录了目标类别及其边界框的宽高和中心点坐标。
5.根据权利要求2所述的基于相对位置感知的高铁接触网防鸟刺识别方法,其特征在于,所述目标检测模型所使用的损失函数为:
其中,表示支撑装置与防鸟刺双目标的分类损失,表示双目标边界框的回归损失,表示支撑装置预测边界框与防鸟刺预测边界框之间的相对位置损失,α、β、γ为超参数,用于调节损失函数中各项比重;
分类损失定义为目标真实类标签与模型预测的类标签之间的交叉熵损失;回归损失定义为目标真实边界框偏移量与模型预测边界框偏移量之间的平方损失;
相对位置损失定义为:
其中,A是由支撑装置预测框内所有像素组成的集合,B是由防鸟刺预测框内所有像素组成的集合,|·|表示集合中元素个数;当B包含于A时,相对位置损失为零;当A中元素数目多于B中元素数目、且二者不存在包含关系时,相对位置损失定义为二者并集元素数目与A元素数目之差;当A包含于B时,相对位置损失定义为二者元素数目之差的常数倍。
6.根据权利要求1所述的基于相对位置感知的高铁接触网防鸟刺识别方法,其特征在于,所述目标检测模型的在线预测过程,包括:通过第一阈值剔除预测置信度较低的预测框;同时,当两个预测框的交并比超出第二阈值时,采用非最大值抑制策略删选二者中预测置信度较低的框;其中,
预测置信度定义为:
O=IoU1×IoU2
其中,IoU1为防鸟刺真实框与防鸟预测框的交并比,IoU2为支撑装置预测框与防鸟刺预测框的交并比,分别定义如下;
其中,C表示防鸟刺真实框内所有像素组成的集合,D表示支撑装置预测框与防鸟刺预测框的最小外接矩形内所有像素组成的集合。
7.一种基于相对位置感知的高铁接触网防鸟刺识别系统,其特征在于,包括:
获取模块,用于获取高铁接触网巡检图像;
检测模块,用于利用预先训练好的目标检测模型,对获取的所述高铁接触网巡检图像进行处理,得到防鸟刺识别结果;其中,所述预先训练好的目标检测模型由训练集训练得到,所述训练集包括多张高铁接触网巡检图像以及标注所述高铁接触网巡检图像中防鸟刺的标签。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京交通大学,未经北京交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211355480.4/1.html,转载请声明来源钻瓜专利网。