[发明专利]一种基于深度学习和视觉定位的非接触式钢轨轨枕相对位移实时测量方法有效
申请号: | 202110226886.1 | 申请日: | 2021-03-01 |
公开(公告)号: | CN112949482B | 公开(公告)日: | 2022-04-29 |
发明(设计)人: | 王森荣;程嘉昊;厉小润;季文献;林超;王晶;朱彬;王建军;杨艳丽;鄢祖建 | 申请(专利权)人: | 浙江大学;中铁第四勘察设计院集团有限公司 |
主分类号: | G06V20/52 | 分类号: | G06V20/52;G06V10/25;G06V10/774;G06K9/62;G06F17/16;G06N20/00 |
代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 郑海峰 |
地址: | 310058 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 视觉 定位 接触 钢轨 轨枕 相对 位移 实时 测量方法 | ||
1.一种基于深度学习和视觉定位的非接触式钢轨轨枕相对位移实时测量方法,其特征在于,包括如下步骤:
步骤1,针对任一个检测点,在需要检测的钢轨轨枕任一侧的固定位置设置摄像头,将摄像头的监控范围对准目标检测位置,在目标检测范围的轨枕上粘贴至少包括两个圆的标志牌,所述标志牌上所有圆心在同一条直线上,且圆心连线与轨枕沿轨道宽度方向的边界线平行;
步骤2,采集目标检测范围内的不同高度、不同角度、不同环境和不同成像方式下的样本图像,标记样本图像中的每一个标记牌的四个角点的原像素坐标,将角点的原像素坐标转换为检测框顶点的原像素坐标;利用四个角点的原像素坐标和实际坐标计算透视变换矩阵,获得样本图片中圆心对应的原像素坐标;
将矩形检测框的对角线上的两个顶点坐标作为标志牌检测标签,将每一个标志牌中边界处的两个圆心坐标作为圆心定位标签,将带标签的样本图像作为训练样本集;
步骤3,建立深度学习模型,利用步骤2得到的训练样本集对深度学习模型进行训练;
步骤4,通过摄像头实时采集每一个检测点处的轨枕视频,从对应当前时刻的视频中等间隔提取m帧作为当前时刻的待检测图像,利用训练好的深度学习模型检测图像中的标志牌区域并定位圆心,根据检测结果过滤无效帧图像;
根据定位得到的圆心原像素坐标确定圆心的位置关系,对两个边界标志牌中的共计四个边界处圆心的原像素坐标进行透视变换,使得透视变换后的四个圆心连线呈矩形;
根据透视变换后的像素坐标和原像素坐标,采用步骤2中的方法计算透视变换矩阵,利用透视变换矩阵对有效帧图像进行透视变换;
步骤5,利用训练好的深度学习模型检测透视变换后的有效帧图像中的标志牌区域,并对透视变换后的有效帧图像进行二值化处理,拟合标志牌区域内的椭圆轮廓,得到椭圆长短轴长度、圆心坐标和椭圆旋转角度作为拟合结果;
步骤6,从相邻两个标记牌中任选一个或多个对应圆心的拟合结果计算相对距离,得到位移值,将每一个有效帧图像中的相对位移值取均值作为初始检测结果;
步骤7,对所有有效帧图像的初始检测结果排序和平滑滤波,将滤波后的均值作为最终结果输出;
步骤8,重复步骤4至步骤7,执行下一时刻的相对位移检测,实现轨枕相对位移的实时测量。
2.根据权利要求1所述的基于深度学习和视觉定位的非接触式钢轨轨枕相对位移实时测量方法,其特征在于,所述的深度学习模型采用在COCO person keypoint数据集上预训练过的Keypoint R-CNN模型。
3.根据权利要求1所述的基于深度学习和视觉定位的非接触式钢轨轨枕相对位移实时测量方法,其特征在于,在步骤2和步骤3之间还包括将训练样本集中的样本图像进行数据增广的步骤,包括随机水平翻转、随机裁切、以及随机改变色调、对比度、明度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学;中铁第四勘察设计院集团有限公司,未经浙江大学;中铁第四勘察设计院集团有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110226886.1/1.html,转载请声明来源钻瓜专利网。