[发明专利]一种AOD炉喷溅预报分析仪信息融合方法在审

专利信息
申请号: 201510354355.5 申请日: 2015-06-25
公开(公告)号: CN104894335A 公开(公告)日: 2015-09-09
发明(设计)人: 马海涛;赵彬;尤元;吴立斌 申请(专利权)人: 长春工业大学
主分类号: C21C7/068 分类号: C21C7/068;G06K9/62;G06N3/02
代理公司: 长春市四环专利事务所(普通合伙) 22103 代理人: 张建成
地址: 130012 吉*** 国省代码: 吉林;22
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种AOD炉喷溅预报分析仪信息融合方法,该方法针对AOD炉冶炼低碳铬铁生产过程,以冶炼过程中发生的喷溅为研究对象,在深入分析冶炼过程喷溅发生机理的基础上,对现场采集的炉内音频信号、炉口火焰图像及炉体振动信号进行特征提取,采用基于特征层融合的BP神经网络数据融合方法对其进行特征级信号融合,得出最合理的判断结果,此方法能够较准确的预报AOD炉冶炼低碳铬铁生产过程喷溅的发生,提高合金的收得率,并保证生产安全。
搜索关键词: 一种 aod 喷溅 预报 分析 信息 融合 方法
【主权项】:
一种AOD炉喷溅预报分析仪信息融合方法,该方法包括以下步骤:一、首先采用超指向麦克风、振动传感器、红外摄像头分别采集炉内音频信号、炉体振动信号和炉口火焰图像信号,经硬件预处理后经过多功能采集卡传送至工控机;然后采用FFT频谱与小波包相结合方法对信号进行特征提取,提取出对判断喷溅发生有用的信息;最后采用基于BP神经网络的数据融合方法对其进行特征级信号融合;二、针对一维声音及振动信号,首先对比分析它们的FFT频谱,比较出两者的整体频率特征;然后进行时域小波包频谱分析,观察它们的时频变化特性;根据分析结果,选择具有喷溅预报特征的频谱,采用db10小波包对其进行三、四层小波包分解,进一步对比分析它们每个频段的能量值、FFT的不同;最后根据分析结果确定一组可以完全区分喷溅信号和正常信号的特征向量,根据大量实验数据分析得出的每种信号的喷溅特征向量都不尽相同,每路信号最终都得到一组喷溅特征值;对二维信号图像的分析处理,采用图像识别技术比较喷溅前与正常冶炼是火焰图像的区别,其火焰图像特征信息有高温区域的面积比例、火焰信号的平均亮度变化、火焰高温区域亮度值、火焰高温所占面积率、火焰有效区域所占面积、火焰质心偏移值,通过比较喷溅发生前与正常冶炼时图像的六种特征信号,确定出可作为图像预报的特征值;三、采用基于特征层融合的BP神经网络数据融合方法对其进行特征级信号融合,该层次中不同传感器检测到不同目标信息,超指向麦克风检测到炉内音频信号,红外摄像头检测到炉口火焰图像信号,振动传感器检测到炉体振动信号,在关联之前首先对每路信号进行特征向量提取,提取出对判断喷溅发生有用的信息,然后对不同类型的特征信息进行关联,信息关联采用BP神经网络方法,BP神经网络采用三层结构,即输入层、隐含层和输出层,BP神经网络的输入为一组三维特征向量,向量元素分别是音频预报特征值、振动预报特征值和火焰图像预报特征值,隐含层的激发函数采用S函数,隐含层神经元数目设置为9,BP神经网络的输出为关联后的特征矢量,即重构后的喷溅特征信号,进而完成喷溅特征信号的融合,根据融合结果判断喷溅的发生;四、BP神经网络算法公式推导1)、前向传播:计算网络的输出;在隐含层中的神经元输入xj大小是输入层神经元输入的加权之和:<mrow><msub><mi>x</mi><mi>j</mi></msub><mo>=</mo><munder><mo>&Sigma;</mo><mi>i</mi></munder><msub><mi>w</mi><mrow><mi>i</mi><mi>j</mi></mrow></msub><msub><mi>x</mi><mi>i</mi></msub><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>1</mn><mo>)</mo></mrow></mrow>xj——隐含层中的神经元输入xi——输入层神经元输入wij——输入层神经元与隐含层神经元的权值每个隐含层的神经元输出使用s激发函数:<mrow><msubsup><mi>x</mi><mi>j</mi><mo>&prime;</mo></msubsup><mo>=</mo><mi>f</mi><mrow><mo>(</mo><msub><mi>x</mi><mi>j</mi></msub><mo>)</mo></mrow><mo>=</mo><mfrac><mn>1</mn><mrow><mn>1</mn><mo>+</mo><msup><mi>e</mi><mrow><mo>-</mo><msub><mi>x</mi><mi>j</mi></msub></mrow></msup></mrow></mfrac><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>2</mn><mo>)</mo></mrow></mrow><mrow><mfrac><mrow><mo>&part;</mo><msubsup><mi>x</mi><mi>j</mi><mo>&prime;</mo></msubsup></mrow><mrow><mo>&part;</mo><msub><mi>x</mi><mi>j</mi></msub></mrow></mfrac><mo>=</mo><msubsup><mi>x</mi><mi>j</mi><mo>&prime;</mo></msubsup><mrow><mo>(</mo><mn>1</mn><mo>-</mo><msubsup><mi>x</mi><mi>j</mi><mo>&prime;</mo></msubsup><mo>)</mo></mrow><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>3</mn><mo>)</mo></mrow></mrow>输出层神经元的输出:<mrow><msub><mi>X</mi><mi>k</mi></msub><mo>=</mo><munder><mo>&Sigma;</mo><mi>j</mi></munder><msub><mi>W</mi><mrow><mi>j</mi><mn>1</mn></mrow></msub><msubsup><mi>X</mi><mi>j</mi><msup><mrow></mrow><mo>,</mo></msup></msubsup><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>4</mn><mo>)</mo></mrow></mrow>xk——输出层神经元的输出wj1——隐含层神经元与输出层神经元的权值网络输出与理想输出误差为:e(k)=y(k)‑yn(k)             (5)e(k)——网络输出与理想输出误差误差性能指标函数为:<mrow><mi>E</mi><mo>=</mo><mfrac><mn>1</mn><mn>2</mn></mfrac><mi>e</mi><msup><mrow><mo>(</mo><mi>k</mi><mo>)</mo></mrow><mn>2</mn></msup><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>6</mn><mo>)</mo></mrow></mrow>E——误差性能指标函数2)、反向传播:采用梯度下降法,进行各个层次之间的权值修改;由梯度下降法的原理得出,层与层之间权值的学习公式,其中η代表学习速率,则连接输出层和隐含层的权值计算公式是:<mrow><msub><mi>&Delta;w</mi><mrow><mi>j</mi><mn>1</mn></mrow></msub><mo>=</mo><mo>-</mo><mi>&eta;</mi><mfrac><mrow><mo>&part;</mo><mi>E</mi></mrow><mrow><mo>&part;</mo><msub><mi>w</mi><mrow><mi>j</mi><mn>1</mn></mrow></msub></mrow></mfrac><mo>=</mo><mo>-</mo><mi>&eta;</mi><mo>&CenterDot;</mo><mi>e</mi><mrow><mo>(</mo><mi>k</mi><mo>)</mo></mrow><mo>&CenterDot;</mo><mfrac><mrow><mo>&part;</mo><msub><mi>x</mi><mi>k</mi></msub></mrow><mrow><mo>&part;</mo><msub><mi>w</mi><mrow><mi>j</mi><mn>1</mn></mrow></msub></mrow></mfrac><mo>=</mo><mo>-</mo><mi>&eta;</mi><mo>&CenterDot;</mo><mi>e</mi><mrow><mo>(</mo><mi>k</mi><mo>)</mo></mrow><mo>&CenterDot;</mo><msubsup><mi>x</mi><mi>j</mi><msup><mrow></mrow><mo>,</mo></msup></msubsup><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>7</mn><mo>)</mo></mrow></mrow>η——学习速率k+1时刻网络的权值为:wj1(t+1)=wj1(t)+Δwj1           (8)隐含层和输入层的权值计算公式如下:<mrow><msub><mi>&Delta;w</mi><mrow><mi>i</mi><mi>j</mi></mrow></msub><mo>=</mo><mo>-</mo><mi>&eta;</mi><mfrac><mrow><mo>&part;</mo><mi>E</mi></mrow><mrow><mo>&part;</mo><msub><mi>w</mi><mrow><mi>i</mi><mi>j</mi></mrow></msub></mrow></mfrac><mo>=</mo><mo>-</mo><mi>&eta;</mi><mo>&CenterDot;</mo><mi>e</mi><mrow><mo>(</mo><mi>k</mi><mo>)</mo></mrow><mo>&CenterDot;</mo><mfrac><mrow><mo>&part;</mo><msub><mi>y</mi><mi>n</mi></msub></mrow><mrow><mo>&part;</mo><msub><mi>w</mi><mrow><mi>i</mi><mi>j</mi></mrow></msub></mrow></mfrac><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>9</mn><mo>)</mo></mrow></mrow>其中<mrow><mfrac><mrow><mo>&part;</mo><msub><mi>y</mi><mi>n</mi></msub></mrow><mrow><mo>&part;</mo><msub><mi>w</mi><msup><mrow></mrow><mrow><mi>i</mi><mi>j</mi></mrow></msup></msub></mrow></mfrac><mo>=</mo><mfrac><mrow><mo>&part;</mo><msub><mi>y</mi><mi>n</mi></msub></mrow><mrow><mo>&part;</mo><msub><msubsup><mi>x</mi><mi>j</mi><msup><mrow></mrow><mo>,</mo></msup></msubsup><mi>j</mi></msub></mrow></mfrac><mo>&CenterDot;</mo><mfrac><mrow><mo>&part;</mo><msubsup><mi>x</mi><mi>j</mi><msup><mrow></mrow><mo>,</mo></msup></msubsup></mrow><mrow><mo>&part;</mo><msub><mi>x</mi><mi>j</mi></msub></mrow></mfrac><mo>&CenterDot;</mo><mfrac><mrow><mo>&part;</mo><msub><mi>x</mi><mi>j</mi></msub></mrow><mrow><mo>&part;</mo><msub><mi>w</mi><msup><mrow></mrow><mrow><mi>i</mi><mi>j</mi></mrow></msup></msub></mrow></mfrac><mo>=</mo><msub><mi>w</mi><mrow><mi>j</mi><mn>1</mn></mrow></msub><mo>&CenterDot;</mo><mfrac><mrow><mo>&part;</mo><msubsup><mi>x</mi><mi>j</mi><msup><mrow></mrow><mo>,</mo></msup></msubsup></mrow><mrow><mi>x</mi><msub><mo>&part;</mo><mi>j</mi></msub></mrow></mfrac><mo>&CenterDot;</mo><msub><mi>X</mi><mi>i</mi></msub><mo>=</mo><msub><mi>W</mi><mrow><mi>j</mi><mn>1</mn></mrow></msub><mo>&CenterDot;</mo><msubsup><mi>x</mi><mi>j</mi><msup><mrow></mrow><mo>,</mo></msup></msubsup><mrow><mo>(</mo><mn>1</mn><mo>-</mo><msubsup><mi>X</mi><mi>j</mi><msup><mrow></mrow><mo>,</mo></msup></msubsup><mo>)</mo></mrow><mo>&CenterDot;</mo><msub><mi>X</mi><mi>i</mi></msub><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>10</mn><mo>)</mo></mrow></mrow>k+1时刻网络的权值为:wij(k+1)=wij(k)+Δwij          (11)考虑两次权值变化对权值学习的改变,加入了动量因子α,则权值计算公式是:wj1(k+1)=wj1(k)+Δwj1+α(wj1(k)‑wj1(k‑1))    (12)wij(k+1)=wij(k)+Δwij+α(wij(k)‑wij(k‑1))      (13)其中η∈[0,1],α∈[0,1]α——动量因子i——输入层的神经元j——隐含层的神经元k——输出层的神经元。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于长春工业大学,未经长春工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201510354355.5/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top