[发明专利]基于改进卷积神经网络的电力变压器在线检测系统及方法有效

专利信息
申请号: 201811618261.4 申请日: 2018-12-28
公开(公告)号: CN109612708B 公开(公告)日: 2021-03-16
发明(设计)人: 杨东升;张化光;秦佳;周博文;杨珺;王智良;罗艳红;庞永恒;汤琪 申请(专利权)人: 东北大学
主分类号: G01M13/00 分类号: G01M13/00;G06N3/04;G06N3/08
代理公司: 沈阳东大知识产权代理有限公司 21109 代理人: 刘晓岚
地址: 110819 辽宁*** 国省代码: 辽宁;21
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 改进 卷积 神经网络 电力变压器 在线 检测 系统 方法
【权利要求书】:

1.一种基于改进卷积神经网络的电力变压器在线检测方法,采用一种基于改进卷积神经网络的电力变压器在线检测系统实现,具体包括离线训练部分和在线检测部分,包括如下步骤:

离线训练部分:

步骤1:采集离线数据:采集故障时段与正常时段的被测试变压器J个传感器传递出的振动波形信号,经过信号放大装置,振动波形信号转换为放大后信号;

步骤2:采用灰度图转换方法将放大后信号转换为二维矩阵:在放大后信号上等距截取相同长度的采样片段,每个片段选取等距的K个采样点,采样点的纵坐标为振幅,将K个振幅值纵向依次排列为K×J的二维矩阵中,其中J为传感器个数,K为采样点数;

步骤3:对灰度图转换后的二维矩阵进行归一化处理,归一化后的二维矩阵作为输入层,即输入归一化二维图:

其中,L(i)表示数据灰度图转换后的二维矩阵,其中i=1,2,...,K×J;P(k,j)(k=1,...,K;j=1,...,J)表示图像像素强度,round函数为循环函数,max(L)为第一个灰度图中最大的元素,min(L)为第一个灰度图中最小的元素,循环函数使所有的像素值标准化到0~255之间;

步骤4:建立网络初始化参数:采用高斯初始化方法,即从均值为0,方差为1的高斯分布中采样,生成随机数,作为卷积神经网络的初始权值,卷积神经网络的权值即为卷积核;

步骤5:依次经过卷积层C1、池化层S2、卷积层C3、池化层S4、卷积层C5、卷积层C6、全连接层F6与输出层Softmax,建立改进卷积神经网络FDL-CNN;

步骤5.1:所述卷积层C1、卷积层C3、卷积层C5、卷积层C6均采用卷积操作,具体如下:

K和J分别表示输入层的高度和宽度,代表J个振动信号传感器变量在时间间隔K上的监测值,改进卷积神经网络的输入层为包含K×J个点的矩阵;k和j分别表示卷积核的高和宽,执行卷积操作后的激活值,即卷积层提取的特征,如式下所示:

经过上式的卷积操作后,输出特征图尺寸缩小至大小;其中,S为步长,b为卷积神经网络偏置,wrc为卷积神经网络的权值,t为输出特征图的行坐标,m为输出特征图的列坐标,r为卷积核的行坐标,c为卷积核的列坐标,其初始值为步骤4中的随机数;

输出特征图尺寸满足下式的约束条件:

为了避免提取特征后,维度缺失,所述卷积层C3采用补零算法,使提取的特征没有维度缺失;

步骤5.2:所述池化层进行的是池化操作,将所述卷积层提取的特征作为输入传到池化层,通过池化层的池化操作,降低数据的维度,采用最大值池化的方法来进行池化操作,公式如下:

其中,H和W分别为池化区域的高和宽,t为卷积后输出特征图的行坐标,m为卷积后输出特征图的列坐标,i为池化后输出特征图的行坐标,j为池化后输出特征图的列坐标;

步骤5.3:所述全连接层是将过滤器特征提取出的特征进行分类;具体方法为,先将最后一个池化层的输出,展开成一维的特征向量,作为全连接层的输入;再将输入与输出之间组成全连接神经网络,其中隐含层使用的激活函数为ReLU函数,输出层的激活函数采用的是Softmax函数,在这里Softmax函数的目的是将输入的神经元转化为和为1的概率分布,为后续的多分类目标函数的建立基础;

全连接的正向传播方法如下式所示:

其中,为第l层第i个神经元与第l+1层第j个神经元之间的权重值;为第l+1层第j个神经元的输出值;为第l层所有神经元对第l+1层第j个神经元的偏置值,al(i)为第l层第i个神经元的输出值;a与z的区别在于,a表示激活后的值,z表示激活之前的值;

当第l+1层为隐含层时,激活函数为ReLU函数,即:

al+1(i)=max{0,zl+1(i)}

当第l+1层为输出层时,激活函数为Softmax函数,即:

其中,K为Softmax函数输出的向量维数;

步骤:6:计算误差函数E的值,具体公式如下:

其中,为卷积神经网络输入第k组数据的实际输出的第j个Softmax函数值,为目标输出值;m为样本组数;

步骤7:判断误差E是否收敛:若收敛,则输出故障定位改进卷积神经网络参数;否则转到步骤8;

步骤8:利用反向传播算法更新卷积神经网络的权值,并转到步骤7判断误差是否收敛,直到误差达到收敛精度,则输出故障定位改进卷积神经网络参数,具体步骤如下:

利用链式求导计算损失函数对每个卷积神经网络的权值的偏导数,也称为梯度,然后根据梯度下降公式更新卷积神经网络的权值;训练算法是反向传播算法,反向传播算法分为四个步骤,即前向计算每个神经元的输出值、反向计算每个神经元的误差项、计算每个神经元连接权重的梯度、根据梯度下降法则更新每个权重;

步骤8.1:输出故障定位改进卷积神经网络参数,即前向计算每个神经元的输出值;

步骤8.2:反向计算每个神经元的误差项:当卷积神经网络输出的结果与期望值不符时,进行反向传播,求出结果与期望值的总误差,再将误差一层一层的返回,计算出每一层的误差,然后进行权值更新,得到最优的卷积神经网络;节点j的误差δj实际上是网络的损失函数Ed对神经元加权输入netj的偏导数,即卷积神经网络由卷积层、池化层、全连接层构成,卷积层每层误差项计算公式如下:

其中,δll+1,netl均为矩阵;

池化层的误差传递依靠上采样函数upsample(·)实现,即:

δl=upsample(δl+1)*σ'(zl)

其中,σ(·)为激活函数,zl表示第l层的激活值;

全连接层包括隐藏层和输出层,隐藏层误差反向传播关系式为:

其中,为第l层第i个神经元与第l+1层第j个神经元之间的权重值,为第l+1层的第j个神经元的误差值,为第l层的第i个神经元的输出值;

输出层误差反向传播关系式为:

δj=aj(1-aj)(tj-aj)

其中,aj为输出层第j个神经元的激活值,tj为输出层第j个神经元的目标值,为输入对应的故障位置,用概率形式表示;

步骤8.3:计算每个神经元连接权重的梯度,由于池化层没有梯度计算,只介绍卷积层与全连接层的梯度计算方法,卷积层梯度计算方法为:

其中,为第l层第i个神经元与第l+1层第j个神经元之间的权重值,为第l+1层的第j个神经元的误差值,为第l层的第i个神经元的输出值;

全连接层梯度计算方法分为隐藏层梯度计算与输出层梯度计算,隐藏层梯度计算公式如下,它与卷积层梯度计算方法相同:

其中,为第l层第i个神经元与第l+1层第j个神经元之间的权重值,为第l+1层的第j个神经元的误差值,为第l层的第i个神经元的输出值;

输出层梯度计算公式如下:

其中,δj为输出层误差,为输出层前一层的第i个神经元的输出值;

步骤8.4:根据梯度下降法更新权值,具体公式如下:

其中,η为学习率;

在线检测部分:

步骤9:在线采集数据:在线实时采集被测试变压器n个传感器传递出的振动信号,经过信号放大装置,振动信号转换为放大后信号;

步骤10:同离线训练中步骤2~步骤3,对在线采集的数据进行处理,得到在线采集数据归一化后二维矩阵;

步骤11:使用离线训练中得到故障定位改进卷积神经网络参数,对在线采数据归一化后二维矩阵进行处理,得到检测结果。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东北大学,未经东北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201811618261.4/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top