[发明专利]基于快速深入学习法进行损伤检测的方法有效
申请号: | 201910572697.2 | 申请日: | 2019-06-27 |
公开(公告)号: | CN110321948B | 公开(公告)日: | 2023-02-03 |
发明(设计)人: | 瓦尔阿波得莫姆阿波得莫姆阿塔贝;努里默罕默德 | 申请(专利权)人: | 瓦尔阿波得莫姆阿波得莫姆阿塔贝 |
主分类号: | G06V10/82 | 分类号: | G06V10/82;G06V10/764;G06V10/80;G06V10/40;G06N3/0464;G06N3/084 |
代理公司: | 常州兴瑞专利代理事务所(普通合伙) 32308 | 代理人: | 王玲玲 |
地址: | 江苏省南京市雨花台区安德门*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 快速 深入 学习 进行 损伤 检测 方法 | ||
本发明提供了一种基于快速深入学习法进行损伤检测的方法,包括:将一个目标的两个以上图像源的一系列结构损伤类型的连续帧序列图像送入dual CNN中提取损伤特征;提取的损伤特征送入SVM分类器进行分类。本发明采用dual‑CNN与Faster R‑CNN相结合的目标检测分析方法,打破了传统的检测时间、定位不准确和人的主观性等局限,同时能够从感兴趣区域获得固定长度的特征向量,以并行处理密集的任务,即能够从多个输入图像应用程序源中提取特征。
技术领域
本发明涉及一种基于神经网络的学习技术,特别是一种基于快速深入学习法进行损伤检测的方法。
背景技术
随着基础设施中高清摄像机、无人机等视觉检测技术的发展和应用,检测过程中产生了大量检测图像和视频。为了获得测试结果,需要对图像或视频进行人工解释,但人工解释是低效的,有时甚至是无效的。深度学习是一门使机器获得视觉能力的科学。此外,它还意味着用机器视觉机器人或相应的装置代替人眼来识别、跟踪和测量目标,并进一步进行图形处理,使计算机处理变得更适合人眼观察或将图像传输到仪器进行检测。深度学习技术已经成功地打破了人工检测基础设施图像或视频的局限性。
根据深度学习的数量和特点,目前的深度学习体系结构包括CNN、R-CNN和FasterR-CNN。所有体系结构都已应用于结构缺陷的检测,并根据体系结构的特点和位置选择了相应的最佳深度学习体系结构系统。这种结构缺陷检测技术目前在我国还不成熟。
经过近十年的深入研究,Faster R-CNN深度学习体系结构的速度和准确性都有所提高。Faster R-CNN的CNN神经网络容量扩展,从CNN演进到R-CNN,然后从R-CNN演进到Faster R-CNN。如图1所示,CNNs模型通常包括通过输入图像上的卷积、激活和极化堆栈进行特征提取,以及通过完全连接的层进行分类以输出每个类的分数。但是Faster R-CNN还没有实现实时检测,GPU上每秒5帧(fps)的检测速度不足以进行实际的结构损伤检测,Faster R-CNN也没有足够的感兴趣区域的特征向量来并行处理密集的任务。
发明内容
本发明的目的在于提供一种基于快速深入学习法进行损伤检测的方法,包括:将一个目标的两个以上图像源的一系列结构损伤类型的连续帧序列图像送入dual CNN中提取损伤特征;提取的损伤特征送入SVM分类器进行分类。
与现有的Faster R-CNN等将深度学习架构检测技术相比,本发明采用dual-CNN与Faster R-CNN相结合的目标检测分析方法,打破了传统的检测时间、定位不准确和人的主观性等局限,同时能够从感兴趣区域获得固定长度的特征向量,以并行处理密集的任务,即能够从多个输入图像应用程序源中提取特征。
下面结合说明书附图对本发明作进一步描述。
附图说明
图1是两级检测级联示意图。
图2是基于快速深入学习法进行损伤检测的方法流程示意图。
图3是缺陷检测分类算法过程图。
图4是结构缺陷检测过程示意图。
图5是各类方法误差比较示意图,其中(a)为误差比较示意图,(b)为训练及测试时间比较示意图,(c)为精度比较示意图。
具体实施方式
本发明基于快速深入学习法(Master-Faster R-CNN)进行损伤检测的方法,包括以下步骤:
步骤1,将一个目标的两个以上图像源的一系列结构损伤类型的连续帧序列图像送入dual CNN中提取损伤特征;
步骤2,提取的损伤特征送入SVM分类器进行分类。
步骤2中采用两步学习法,使用作为feature maps第一个N-1层训练CNN,同时这些映射用于训练支持向量机(SVM)分类器。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于瓦尔阿波得莫姆阿波得莫姆阿塔贝,未经瓦尔阿波得莫姆阿波得莫姆阿塔贝许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910572697.2/2.html,转载请声明来源钻瓜专利网。