[发明专利]一种基于卷积神经网络的轴承检测方法有效
申请号: | 201910985498.4 | 申请日: | 2019-10-16 |
公开(公告)号: | CN110579354B | 公开(公告)日: | 2020-11-06 |
发明(设计)人: | 杨志勃;张俊鹏;刘一龙;陈雪峰;刘金鑫;田绍华;乔百杰;宫保贵 | 申请(专利权)人: | 西安交通大学 |
主分类号: | G01M13/045 | 分类号: | G01M13/045;G06F30/27;G06N3/04 |
代理公司: | 北京中济纬天专利代理有限公司 11429 | 代理人: | 覃婧婵 |
地址: | 710049 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 卷积 神经网络 轴承 检测 方法 | ||
本发明公开了一种基于卷积神经网络的轴承检测方法,方法包括以下步骤:基于轴承的振动加速度信号生成基于卷积神经网络的一维振动信号,将所述一维振动信号按照时序和比率依次划分为训练集、验证集和测试集,建立基于Grad‑CAM的卷积神经网络可视化结构,经过ReLU函数激活获得卷积神经网络对应于输入样本的Grad‑CAM图,在所述Grad‑CAM图上采样振动信号的维度,以Grad‑CAM的取值区间设定不同激活阈值,以Grad‑CAM激活区域对应的坐标作为索引对原始信号经过卷积神经网络后的激活情况进行标注,建立神经网络区域与目标类别之间的联系。
技术领域
本发明属于轴承故障检测领域,特别是一种基于卷积神经网络的轴承检测方法。
背景技术
如今,在工业大数据的背景下,人工智能和机器学习的快速进步使得故障诊断逐步走向智能化,利用数据驱动的故障诊断智能算法越来越受到重视,成为故障诊断领域新的研究热点。尤其是近年来,以卷积神经网络为代表的深度学习方法在模式识别中取得了巨大的成功,这类方法可以自动地挖掘输入信息的深层特征,在输入端直接输入原始信息,在输出端便可得到输出结果,因而也被称为“端到端”的学习方式。它们取代了传统算法繁琐的特征提取等预处理过程,在工业“大数据”时代异军突起。
虽然卷积神经网络在结果上效果显著,但是因难以理解的“黑匣模型”,存在潜在的安全隐患而一直饱受争议,根源一方面在于其神经网络本身缺乏基础数学理论的支撑,另一方面神经网络的结果缺乏工程解释性。尤其是卷积神经网络等普遍存在过拟合的问题,难以让人对结果产生信服力。特别是在机械故障诊断领域,很多卷积神经网络方法只是简单的将已有的深度学习模型直接用于机械信号的分析,仍显得缺乏依据。
在背景技术部分中公开的上述信息仅仅用于增强对本发明背景的理解,因此可能包含不构成在本国中本领域普通技术人员公知的现有技术的信息。
发明内容
针对现有技术中存在的问题,本发明提出一种基于卷积神经网络的轴承检测方法,该方法通过 Grad-CAM图,在原始振动信号上进行标注,重点突出神经网络的关注区域与目标类别之间的联系,解释卷积神经网络的学习注意力,从而实现对轴承故障的监测。
本发明的目的是通过以下技术方案予以实现,一种基于卷积神经网络的轴承检测方法包括以下步骤:
第一步骤中,基于轴承的振动加速度信号生成基于卷积神经网络的一维振动信号,将所述一维振动信号按照时序和比率依次划分为训练集、验证集和测试集,将训练集、验证集和测试集的样本通过卷积神经网络训练得到,其中,Ak为经过最后一个卷积层生成的k个特征映射,f为非线性激活函数,W为学习权重,x为待判定轴承故障类别的输入样本,b为学习偏置,为卷积运算,yc为判定该输入样本为c类轴承故障的得分值;
第二步骤中,建立基于Grad-CAM的卷积神经网络可视化结构其中,yc为判定该输入样本为c类轴承故障的得分值,为第k个特征映射中(i,j)位置处的取值,求得所有特征映射对应网络判定输入样本为c类轴承故障的学习权重,将其与特征映射的取值加权求和,然后经过线性整流函数ReLU(x)=max(0,x)激活获得卷积神经网络对应于输入样本x的不同位置激活程度的类激活图Grad-CAM:
第三步骤中,在所述Grad-CAM图上采样振动信号的维度,以Grad-CAM的取值区间设定不同激活阈值,以Grad-CAM激活区域对应的坐标作为索引对原始信号经过卷积神经网络后的激活情况进行标注,建立神经网络区域与目标类别之间的联系。
所述的方法中,第一步骤中,传感器测量轴承振动加速度信号,训练集、验证集和测试集中的每个集合的样本包含Np个采样数据点:Np≥60fs/v,其中,fs为采样频率,单位:Hz;v为转速,单位:r/min,Np为每个样本包含的采样点个数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安交通大学,未经西安交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910985498.4/2.html,转载请声明来源钻瓜专利网。