[发明专利]一种轻量化的端到端道路损伤检测目标分割方法在审
申请号: | 202310425106.5 | 申请日: | 2023-04-20 |
公开(公告)号: | CN116630684A | 公开(公告)日: | 2023-08-22 |
发明(设计)人: | 沈钧戈;王鑫;毛昭勇;刘佳璇;葛伟臻 | 申请(专利权)人: | 西北工业大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/40;G06V10/80;G06V10/26;G06V10/774 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 710072 陕西*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 量化 端到端 道路 损伤 检测 目标 分割 方法 | ||
本发明公开了一种轻量化的端到端道路损伤检测目标分割方法,首先将数据集中的图像经过骨干特征提取网络Shuffle‑ECANet得到特征,然后经过多尺度特征融合网络,得到包含不同尺度的特征图;再将特征图经过轻量级多分支通道注意力网络LMCA‑Net,得到最终识别出损伤的图像。通过训练得到网络的权重,在实际检测时,可以将摄像机拍摄的实时图像输入到该目标分割模型中,导入前面得到的权重,对道路损伤进行识别及分割。本发明能够快速自动准确地识别和分类特定类型的道路损伤,在目标分割上依然有良好的性能效果。
技术领域
本发明属于深度学习技术领域,具体涉及一种道路损伤检测目标分割方法。
背景技术
目前,中国已经拥有庞大的公路和道路网络,每年有关部门都要投入大量人力和财力去解决路面损伤的问题,如果不能及时且精准地发现路面缺陷,就会导致路况进一步恶化,甚至容易导致交通事故的发送。因此如何快速便捷且能精准识别道路损伤,成为了当前计算机视觉领域的一大课题。
早期的路面损伤检测主要依靠人工检测,存在安全性差、效率低、成本高的问题;后来衍生出自动化路检技术,依靠搭载在道路巡查车上的传感器设备来进行检测,但是依然存在硬件成本高、识别精度较低的问题;而目前路面损伤检测主要依靠计算机视觉领域的方法,基于神经网络模型,通过图像识别来精准地判断出路面损伤的类型。
目前在道路损伤识别的目标分割中的研究:为了解决仅对有或没有道路损坏的图像进行分类,并能够通过网络更直观地检测像素级别的道路损坏,Pereira等人使用U-Net进行道路和坑洼图像的语义分割方法,它们的网络结构分为编码器和解码器两部分,用于特征提取、特征融合和结果预测。为了设计更先进的语义分割模型来提高检测率,Fan等提出了一种新的语义分割坑洞检测方法,该方法利用串联空心卷积组成的空间金字塔池化模块,利用通道注意力机制增强特征提取过程后,整合空间上下文信息,这有助于检测多尺度道路坑洼。为解决道路裂缝检测困难的问题,Zhang等人通过在编码器和解码器之间增加空洞卷积并在解码器阶段引入深度监督,提高了AD-Net的裂缝道路检测性能。为增强特征表示能力并减轻阴影,噪声等干扰因素对道路裂缝检测的影响,Fang等人通过在编码器层配置变压器块来提高AD-Net的性能。
当前路面损伤检测在目标分割上还存在一些短板问题,主要面临检测精度虽高,但是检测速度慢,不能很好地平衡二者。需要多阶段操作,往往要对图像进行预处理和后处理,实时检测性能较差,无法实现端到端的轻量级模型网络。
发明内容
为了克服现有技术的不足,本发明提供了一种轻量化的端到端道路损伤检测目标分割方法,首先将数据集中的图像经过骨干特征提取网络Shuffle-ECANet得到特征,然后经过多尺度特征融合网络,得到包含不同尺度的特征图;再将特征图经过轻量级多分支通道注意力网络LMCA-Net,得到最终识别出损伤的图像。通过训练得到网络的权重,在实际检测时,可以将摄像机拍摄的实时图像输入到该目标分割模型中,导入前面得到的权重,对道路损伤进行识别及分割。本发明能够快速自动准确地识别和分类特定类型的道路损伤,在目标分割上依然有良好的性能效果。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1:数据集中的图像经过骨干特征提取网络Shuffle-ECANet得到特征,输入图像尺寸为a×b×3;
将YOLOv5的骨干特征提取网络替换为Shuffle-ECANet,Shuffle-ECANet包括ShuffleNetV2和ECA-Net注意力机制两部分,ECA-Net通过全局平均池化和1*1卷积降维,将Shuffle层提取的W*H*C特征图转化为1*1*C的特征图;
步骤2:然后经过多尺度特征融合网络,得到包含不同尺度的特征图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学,未经西北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310425106.5/2.html,转载请声明来源钻瓜专利网。