[发明专利]一种基于ATT-CNN的变工况下滚动轴承故障识别方法有效
申请号: | 201910162041.3 | 申请日: | 2019-03-01 |
公开(公告)号: | CN109902399B | 公开(公告)日: | 2022-07-19 |
发明(设计)人: | 梁欣涛;康守强;李艺伟;王玉静;王庆岩 | 申请(专利权)人: | 哈尔滨理工大学 |
主分类号: | G06F30/17 | 分类号: | G06F30/17;G01M13/04;G06N3/04 |
代理公司: | 黑龙江立超同创知识产权代理有限责任公司 23217 | 代理人: | 杨立超 |
地址: | 150080 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 att cnn 工况 滚动轴承 故障 识别 方法 | ||
1.一种基于ATT-CNN的变工况下滚动轴承故障识别方法,其特征在于,所述方法的实现过程为:
步骤一、数据增强:对含有多种工况下的滚动轴承原始振动信号采取重叠分割的方法进行样本划分以获取表现形式更加多样的振动数据并制作数据集,将增强后的数据集进行训练样本和测试样本的划分;
步骤二、训练阶段:
训练样本采取单工况或多工况数据形式,在CNN的结构中引入注意力机制,为不同的特征映射赋予权重,从而获得改进的CNN,即获得注意力机制CNN模型结构;
对改进的CNN进行网络参数初始化,通过逐层的参数信息传递得到输出值,通过目标损失函数计算实际输出与目标输出的偏差,利用反向传播误差调整网络权值及偏置,当网络迭代次数达到预设值时中止训练,得到ATT-CNN滚动轴承多状态识别模型;
步骤三、测试阶段:采用不同于训练阶段工况下的数据形式,对步骤2)中已训练好的ATT-CNN滚动轴承多状态故障识别模型进行测试,得到变工况下的滚动轴承故障诊断结果;
在步骤二中,改进的CNN的构建过程为:
1卷积神经网络
包括输入层、卷积层、池化层、全连接层和输出层,输入层为滚动轴承的原始振动信号,通过交替、堆叠卷积和池化操作来学习抽象的空间特征,全连接层结合Softmax分类器通过输出层滚动轴承故障识别结果;
1.1卷积层
在卷积层中,利用前一层的输出与多个卷积核卷积并生成特征映射,通过激活函数构建输出特征矢量,其数学模型可描述为:
其中:分别表示l层第i个卷积核的权重与偏置,*代表卷积运算,σ为激活函数;xl(j)为l层第j个神经元,输出为卷积核K在输入xl(j)上学习到的特征;
σ为激活函数采用线性修正单元(ReLU),ReLU的公式为:
其中:为yil+1(j)经过激活函数得到的激活值;
1.2池化层
池化能够提取每个特征映射中最重要的局部信息,并通过该操作可以显著减小特征维度,选取max-pooling作为池化方式,池化长度为N,在卷积层与池化层中,所有操作的滑动步长皆为1,池化层的输入为卷积层生成的特征映射:
其中:是第l+1层第i个池化操作输出的第j个神经元;
1.3全连接层
全连接层具体构建过程是将最后一个池化层的输出展平为一维特征向量作为全连接层的输入,在该层的输入与输出之间是全连接的,其公式描述为:
其中:为第l层第i个神经元与第l+1层第j个神经元之间的权值;bj为第l层所有神经元对第l+1层第j个神经元的偏置;为第l+1层第j个神经元的输出;σ为激活函数;
在输出层,经过Softmax函数处理后得到:
其中:qj表示输出神经元的概率值,表示输出滚动轴承故障类别的概率;M为目标分类个数,滚动轴承故障类别总数;
2卷积神经网络的改进
通过CNN计算输入特征Z的注意力权值α对Z加权,加权后的特征Z′代替原来的Z作为CNN下一层的输入,具体实现方式为:
步骤1:特征聚合,在卷积层进行特征聚合,将每个特征映射聚合为一个特征向量,该向量可认为具有全局的感受野,输出的维度与输入的特征映射个数相匹配:
其中:ci表示第i个特征映射聚合生成的特征向量,zi表示第i个特征映射,L为单个特征映射的长度;
步骤2:权重生成,通过两层的全连接层为每个特征通道生成权重αi,建立特征通道之间的相关关系:
α=δ(V2σ(V1C)) (7)
其中:δ、σ分别为激活函数Sigmoid和ReLU,V1、V2分别为全连接层的权重向量,C为步骤1中特征聚合生成特征向量ci的集合,α为生成权重向量αi的集合;
步骤3:权重匹配,利用在步骤2中学习到的权重向量α,分别与该卷积层的特征映射进行匹配相乘:
Z′=α*Z (8)
最终得到在注意力机制网络下学习到的新的特征Z′,使新的特征具备主次之分,关注到信号中的局部故障信息;
3、插入BN层
在卷积层与池化层中间插入BN(Batch Normalization)层,将隐藏层的输入分布归一化到所需的高斯分布来减少内部协变量偏移,以防止梯度消失或爆炸,加快网络训练;
BN层的实现过程为:
首先,独立标准化每一维的特征以便加速收敛,在一个mini-batch中,卷积层的输出空间维度有d维,则BN层有d维输入:Z=(z(1)z(2)…z(d)),归一化每一维得到:
其中:E[z(k)]为z(k)的均值,Var[z(k)]为z(k)的方差,k∈[1,d];
其次,引入一组可学习的重构参数,分别为缩放参数γ(k),与位移参数β(k),使网络恢复由归一化破坏的特征分布:
其中:y(k)为经过BN层处理之后输出的特征;
至此,获得注意力机制CNN(ATT-CNN)模型结构。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨理工大学,未经哈尔滨理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910162041.3/1.html,转载请声明来源钻瓜专利网。