[发明专利]一种基于混合模型的浓密机底流浓度预测方法有效

专利信息
申请号: 201811114507.4 申请日: 2018-09-25
公开(公告)号: CN109242194B 公开(公告)日: 2022-01-14
发明(设计)人: 肖冬;江隆强;单丰;刘新新;付晓锐 申请(专利权)人: 东北大学
主分类号: G06Q10/04 分类号: G06Q10/04;G06Q50/04;G06N3/04
代理公司: 沈阳东大知识产权代理有限公司 21109 代理人: 李运萍
地址: 110819 辽宁*** 国省代码: 辽宁;21
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 混合 模型 浓密 机底流 浓度 预测 方法
【权利要求书】:

1.一种基于混合模型的浓密机底流浓度预测方法,其特征在于,包括以下步骤:

步骤1:机理建模

步骤1.1机理模型的建立

由于浓密过程是基于重力沉降作用的,则矿浆浓度是取决于沉降时间和空间高度的量,因此矿浆浓度可表示为C(z,t),其中设置z轴竖直向下为正方向,t为浓密过程时间,进行合理化的假设,假设沉降过程是一维的,由于重力沉降和压缩作用本质上是一维的,通过一维沉降模型捕获过程基本特性,沉降过程的质量守恒关系由偏微分方程来描述:

其中vs≥0是矿浆向下沉降速率,方程中包含两个未知量矿浆浓度C和沉降速率vs,因此求解此方程需要建立矿浆浓度C和沉降速率vs之间的本构关系;

在单位时间内,任意间隔(z1,z2)质量的增长等于z1高度流入的流量减去z2高度流出的流量再加上间隔内产生的流量,表达式为:

其中Qf为进料流量;A为浓密机的横截面积;Cf为进料浓度;δ(z)为δ函数,只有在进料层时δ(z)=1,其他高度δ(z)=0;流量Φ表示为其中:

其中:

采用分层思想将浓密机内部细分为n层,则每层的高度为Δz=(B+H)/n,设层与层之间的分界线,每层分界线的高度通过计算得到,公式为:

z:=iΔz-H,i=0,...N

则溢流层z0和底流层zn落在分界线上,溢流层z0=-H,底流层zn=B,设进料口z=0在(zm-1,zm]区间内,相应的第m层为进料层;在仿真系统中,对应溢流区和底流区在方程的顶部和底部分别多加了两层,顶部两层模拟溢流区,底部两层模拟底流区,溢流浊度Ce取第0层浓度,底流浓度Cn为第n+1层浓度;因此,计算区域由n+4个长度为Δz的区间组成,确保精确;

对于每一层,可以重新写一个精确版本的质量守恒方程如下式:

其中是压缩系数;

由于精确版本的质量守恒方程的每一项并不是在每一层中都会存在,分层建立更详细的机微分方程:

在沉降区,第i=2,...,m-1层:

第i=m,进料层:

对于底流层:

其中Cf是进料浓度;是弥散系数;n是分层的层数;z是浓密机的高度;zf是进料高度;vs是沉降速度;C是矿浆的浓度;Gi如式所示;

基于现场条件的限制,流体的流速无法通过仪器测量出来,故而引用流体力学的伯努利方程进行转换,将现场仪表测得的压力数据转换成适用于机理模型的流速,同时忽略同一水平上流体的重力势能,故而流体的流速与压力的转换公式为:

步骤1.2:辅助变量选择:对浓密洗涤过程的关键变量底流浓度进行预测,确定软测量模型的主导变量为底流浓度,对底流浓度影响较大的变量包括顶层体积流量,进料流量,底流体积密度,流体流速,同时这四个变量在工业现场可以通过检测装置测得的,因此选择它们作为输入变量,选择底流浓度作为输出变量,来进行数据预处理,机理模型和混合模型的研究;步骤1.3.数据预处理:在实际测量数据中,常常会有个别测量数据明显超出测量数据的一般范围,即测量值偏离其余测量值的平均水平过远,把这样的数据称为异常值,对于异常值采用3σ原则进行处理;对于一个样本集x1,x2,x3,x4,如果样本中只存在随机误差,统计随机误差的正态分布规律,把偏差绝对值大于3σ的数据视作异常数据,予以剔除,实现方法为:

对于测量数据[x1,x2,x3,x4],首先根据公式计算其平均值,再根据式计算标准差的估计值:

假设对于任意数据点xd,若满足则根据3σ原则,该数据视为异常值,应将xd从测量数据中剔除;再将xd剔除后,再对保留下来的数据重新计算σ值,重新进行异常值检测,重复迭代操作,直至所有异常值都被剔除为止;

步骤2:基于三层极限学习机算法的数据模型建立:

步骤2.1:ELM算法:极限学习机的网络结构是由输入层,隐含层和输出层共三个网络层组成的前馈神经网络,在ELM模型的训练过程中,网络的权值与阈值参数是不需要迭代修正的,而是在训练之前,随机设置隐含层中的神经元节点的个数,并且随后随机取值输入层与隐含层的权值矩阵和隐含层的阈值矩阵,这两个网络参数都初始化为在-1至1之间的随机数矩阵,经过最小二乘法的运算后,ELM神经网络便可以获得唯一的最优解,而不会陷入局部最优中;

ELM网络中两两相邻的网络层中神经元之间是全部连接在一起的,输入层中神经元节点的个数有n个,对应着一个输入数据样本有n个维度;隐含层中神经元节点的个数有l个,是凭借经验随机设置的;输出层中神经元节点个数为m个,对应着m个输出变量;

设输入层与隐含层之间的连接权值矩阵w为:

其中wji代表着输入层第i个神经元与隐含层第j个神经元间的连接权值;

设隐含层与输出层间的连接权值β为:

其中,βjk代表着隐含层第j个神经元与输出层第k个神经元之间的连接权值;

设隐含层神经元的阈值为:

假设具有Q个训练集样本的输入矩阵为X(n×Q),标记矩阵为Y(m×Q);

隐含层神经元的激活函数为g(x),则ELM网络的输出T为:

T=[t1 t2 … tQ]m×Q

其中,wi=[wi1 wi2 … win];xj=[x1j x2j … xnj]T

上式也可以表示如下:

Hβ=T'

其中,H为ELM隐含层的输出矩阵,T'为标记矩阵T的转置;

其中H为:

提高网络的泛化能力,使网络预测输出更加稳定,在β的求解过程中加入正则化项,而且与ELM中求解输出权重的方法有所不同:

当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果训练样本集中包含的训练样本数目较多时,则输出权值的求解为:

当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果隐含层中包含的神经元节点个数较多时,则输出权值的求解为:

当训练样本集中包含的训练样本数目与隐含层神经元节点的数目相比较时,如果这两个数值相等时,则输出权值的求解为:

β=H+T

其中H+是输出矩阵H的Moore-Penrose广义逆;

则求出ELM网络的输出:y=Hβ;

步骤2.2:常见的激活函数以及隐含层节点个数的选择:

ELM神经网络中激活函数的选择对模型的精确度有着巨大的影响,合适的激活函数可以提高模型的精确度和稳定性;

对于极限学习机隐含层神经元个数的选择是通过“尝试法”来确定;在学习训练的过程中,随机生成隐含层节点数,重新调整网络结构,训练网络模型,取最优的网络模型为准;

步骤2.3:三隐含层ELM算法:三隐含层网络结构的极限学习机,是在经典极限学习机的基础之上添加两个隐含层,构成具有一个输入层,三个隐含层和一个输出层的神经网络结构,各层神经元之间都是处于全连接状态的;同时TELM网络算法继承了ELM网络算法随机初始化第一个隐含层与输入层之间的权值矩阵和第一个隐含层的阈值矩阵的理论,引入一种方法来获得剩余隐含层的权值矩阵与阈值矩阵的参数,组合成一个新的含有多个隐含层的网络结构模型;其中,TELM网络算法表示三隐含层ELM算法;

假设给定输入训练集样本为{X,T}={xi,ti}(i=1,2,…,Q),其中X是输入样本,T是标志样本;且所有的隐含层都具有相同的隐含层节点数目;根据TELM算法的原理介绍,首先我们把具有三个隐含层ELM神经网络中的三个隐含层看成是两个隐含层,且第一个隐含层的权值矩阵与阈值参数都是随机初始化的,由单隐含层ELM推导公式得到第一个隐含层与第二个隐含层的权值矩阵、阈值矩阵和隐含层的输出矩阵,由ELM算法可以得知,第三个隐含层的期望输出为:

H3*=Tβnew+

其中,是βnew的广义逆矩阵;

把第三个隐含层加入到TELM网络中去,就恢复到了含有三个隐含层的TELM神经网络结构,由于三个隐含层ELM中层与层之间的神经元是全部连接在一起的,就可以得到第三个隐含层的预测输出H3为:

H3=g(W2H2+B2)

其中W2是第二个隐含层与第三个隐含层之间的权值矩阵,B2是第三个隐含层的阈值,H2是隐含层的输出矩阵,这里作为第二个隐含层的输出矩阵;

为了满足第三个隐含层的预测输出无穷接近于期望输出,使得H3=H3*

假设矩阵WHE1=[B2 W2],第三个隐含层的权值W2和阈值B2可以求解得:

WHE1=g-1(H3*)HE1+

其中,是矩阵HE1=[1 H2]T的广义逆矩阵,1表示一个有Q个元素的向量,且每一个元素都是1,g-1(x)是激活函数g(x)的反函数;

当以上隐含层的参数全部求解过后,更新第三个隐含层的预测输出H4

H4=g(W2H2+B2)=g(WHE1HE1)

提高多隐含层ELM神经网络的泛化能力,使网络预测输出更加稳定,在βnew的更新求解过程中加入正则化项;而且与TELM算法中求解输出权重的方法有所不同:

当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果训练样本集中包含的训练样本数目较多时,则输出权值的求解为:

当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果隐含层中包含的神经元节点个数较多时,则输出权值的求解为:

当训练样本集中包含的训练样本数目与隐含层神经元节点的数目相比较时,如果这两个数值相等时,则输出权值的求解为:

βnew1=H4+T

则最终可以得到具有三个隐含层的ELM神经网络输出f(x)为:

f(x)=H4βnew1

步骤2.4数据模型的建立:

数据建模是通过对被控过程的历史数据进行数据处理、统计分析,找出过程输入与输出之间的关系式;

步骤3:机理模型与数据补偿模型建立混合模型:

数据补偿模型与机理模型相结合构成了浓密洗涤过程的并联混合模型,以机理模型来描述浓密洗涤过程的整体特性,数据模型作为机理模型的误差补偿模型,建立的是机理模型预测值与实际值的偏差与过程可测变量之间的关系;将机理模型与实际值的偏差作为输出样本,输入数据作为输入样本来训练补偿器,即EDO-TELM模型;将机理模型与补偿器的预测值相加作为模型的预估值;实现用EDO-TELM来逼近实际系统和机理模型之间的差值,即用EDO-TELM去补偿了未建模部分的误差,对模型的不确定部分给予了合理的估计,大大地减小了模型误差,从理论上提高了模型的预估精度;

浓密洗涤过程的机理模型与EDO-TELM数据补偿模型并联,对浓密洗涤过程的关键变量进行预估,混合模型的输入输出关系可以作如下表示:

Yt=Ym(x1,x2,x3,x4)+YEDO-TELM(x1,x2,x3,x4)

式中x1,x2,x3,x4代表可测的辅助变量,分别为4个变量;函数Ym(x1,x2,x3,x4)代表机理模型的预测输出;函数YEDO-TELM(x1,x2,x3,x4)代表EDO-TELM补偿模型对机理模型输出误差的补偿值;Yt代表混合模型的预测输出,即模型预估值;

步骤3.1:整体分布优化算法优化三层极限学习机:

在整体分布优化算法优化三层极限学习EDEDO-TELM的位置向量对应极限学习机的输入权重和偏置向粒子的维数由极限学习机中起连接作用的权值的数量和阈值个数决定,用给定训练样本集来计算极限学习机输出权重,再根据输出权重计算给定测试样本集的输出误差,以输出误差作为适应度值,误差越小即表示该粒子的性能越好;粒子群通过在权值空间内移动搜索,寻找使得极限学习机输出误差最小的输入权重和偏置向量;

利用整体分布优化算法优化三层极限学习机的具体实现步骤如下:

步骤3.1.1:初始化TELM:设定网络的输入层、隐含层和输出层的神经元个数,激活函数的选择;

步骤3.1.2:初始化EDO:在整个定义域内随机产生种群,同时初始化柯西分布的半径为覆盖整个定义域的0.5倍;柯西分布尺度参数γ=0.1,种群直径递减率α=0.93,停滞次数β=9,最大迭代次数10000或者种群直径的标度小于0.000001,种群规模为70;

步骤3.1.3:计算适应度值:对所有的粒子,根据TELM的模型计算出各自的输出值,最终求得其样本误差,此样本误差即为各个粒子的适应度;

判断算法是否达到最大迭代次数,或粒子的适应度值小于某个设定值,条件满足则转到第六步,否则转到步骤3.1.4;

步骤3.1.4:更新全局极值与各个粒子的个体极值:找出本次最好的个体与上次的最优个体比较,如果好于上次的最优个体,替换上次最优个体,作为本次的最优个体,种群直径保持不变;如果差于上次的最优个体,则保留上次最优个体,作为本次的最优个体,同时使停滞次数减1,若停滞次数为0,则使种群直径减为原来直径的0.93,同时使停滞次数置为9;若停滞次数不为0,则保持原来的直径不变;迭代次数减1;

步骤3.1.5:以已经找到的最优个体的位置为中心,用柯西分布产生新的种群;

步骤3.1.6:当迭代次数达到预先设定的最大次数或种群直径的标度小于0.000001,则算法迭代停止,全局极值所对应的三层极限学习机的输入权值和偏置向量即为问题的最优解,输入检测样本进行预报。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东北大学,未经东北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201811114507.4/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top