[发明专利]一种深度超限示功图学习方法在审

专利信息
申请号: 201910588402.0 申请日: 2019-07-01
公开(公告)号: CN110288257A 公开(公告)日: 2019-09-27
发明(设计)人: 罗仁泽;张可;王瑞杰;袁杉杉;吕沁;马磊;李阳阳 申请(专利权)人: 西南石油大学
主分类号: G06Q10/06 分类号: G06Q10/06;G06Q50/02;G06K9/62;G06N3/04
代理公司: 暂无信息 代理人: 暂无信息
地址: 610500 四*** 国省代码: 四川;51
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种深度超限示功图学习方法,传统示功图识别方法识别存在人工选择特征,准确率低,泛化性能不强等问题。针对以上问题,提出了一种深度超限示功图学习方法,利用深度卷积网络提取示功图深度特征向量,输入极限学习机中给出识别类型。该方法,不仅避免了传统方法示功图诊断中复杂的特征提取过程和特征提取不充分的弊端,同时提高了示功图故障诊断的识别率,而且该方法具有更强的泛化性能。
搜索关键词: 示功图 超限 泛化性能 特征提取过程 极限学习机 示功图诊断 方法识别 故障诊断 人工选择 深度特征 特征提取 网络提取 识别率 准确率 卷积 向量 学习
【主权项】:
1.一种深度超限示功图学习方法,其特征在于包括以下步骤:步骤1:对油田采集的位移和载荷数据进行预处理,得到示功图训练集和测试集样本;步骤2:搭建深度卷积自编码器模型,利用示功图训练集样本,对深度卷积自编码器进行无监督训练,得到深度卷积网络的预训练参数,深度卷积自编码器的第一卷积层到第七卷积层分别包含2n、4n、8n、8n、8n、4n、2n个5*5大小的卷积核,n为大于0的正整数;步骤3:搭建深度卷积网络模型,并利用深度卷积自编码器训练得到的编码层参数初始化深度卷积网络的卷积层参数,深度卷积网络结构中包含输入层、p个卷积层、q个池化层、k个全连接层以及输出层,其中p、q、k均为大于等于0的正整数,输出层满足One‑hot格式输出,且每个卷积操作后均使用LeakyReLU激活函数进行非线性化处理;其中,通过使用卷积滤波器对示功图进行卷积的计算公式为:式中,f()表示激励函数,表示第l层的第j个神经元的偏置值,表示第l层的第i神经元到第j个神经元间的权重,表示第l层的第j个神经元输入,conv2D()表示二维卷积,i、j、l、k为大于0的正整数;其中,LeakyReLU激活函数为:式中γ为一个小于0.01的常数;步骤4:利用训练集样本对深度卷积网络进行训练,将输出结果与样本标签计算误差,利用反向传播算法和梯度下降法对深度卷积网络的参数进行迭代更新,得到训练完成参数;其中,计算误差的交叉熵损失函数为:式中,yk是第k个样本预测输出标签,tk是第k个样本训练集真实标签,k为大于0的正整数;步骤5:将训练完成的深度卷积网络的全连接层移除,加上极限学习机层,对该层进行训练,得到训练参数,极限学习机层包含n隐藏层和一个识别分类层,特征输入层包含64n个特征向量,隐藏包含125n个神经元,输出层均满足One‑hot格式输出,n为大于0的正整数;步骤6:在步骤1中的测试集上,测试网络的识别准确率,若比前一次识别正确率高,则保存模型参数,继续返回到步骤5,对参数进行调整,直到模型识别正确率上下波动小于0.001,则停止迭代。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西南石油大学,未经西南石油大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201910588402.0/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top