[发明专利]一种基于EMD的断面客流神经网络预测方法有效

专利信息
申请号: 201310699959.4 申请日: 2013-12-18
公开(公告)号: CN103729688B 公开(公告)日: 2018-08-31
发明(设计)人: 王子洋;朱婕;秦勇;赵忠信;钟玲玲;于鸿飞;杜渺;李倩;李文宇;朱鹏;李军;刘靖;袁敏正;丁健隆 申请(专利权)人: 北京交通大学
主分类号: G06Q10/04 分类号: G06Q10/04;G06Q50/30;G06N3/02
代理公司: 北京众合诚成知识产权代理有限公司 11246 代理人: 薄观玖
地址: 100044 北*** 国省代码: 北京;11
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了属于轨道运输技术领域的一种基于EMD的断面客流神经网络预测方法。该方法先获取本征模函数分量:将每日每30分钟间隔时段内OD间的汇总客流量分配到断面客流信息中,形成断面客流量原始序列,对原始序列进行经验模式分解处理,获得IMF分量,组成IMF矩阵;组件识别:计算每个IMF分量与原始客流序列的皮尔森相关系数,分析与原始数据的相关性;神经网络预测:构建三层BP网络模型,将测试数据作为输入层的输入数据,代入到BP神经网络中进行预测,得到相应的断面客流量输出。本发明提出的混合EMD和神经网络的方法,分析客流数据特征,为神经网络预测方法提供输入变量。本发明可得断面客流预测精度均大于95%。
搜索关键词: 一种 基于 emd 断面 客流 神经网络 预测 方法
【主权项】:
1.一种基于EMD的断面客流神经网络预测方法,其特征在于,该方法步骤如下:第一步:获取数据本征模函数分量;将每日每30分钟间隔时段内OD间的汇总客流量分配到断面客流信息中,形成断面客流量原始序列;根据数据的特征时间尺度来经验地识别出固有振荡模态,然后据此把一个非平稳信号分解为一系列本征模函数和一个冗余分量之和,即经验模式分解处理得到本征模函数IMF分量;每个IMF分量需满足两个条件:①过零点的数量与极值点的数量相等或至多相差一个;②在任一时间点,局部最大值确定的上包络线和局部最小值确定的下包络线的均值为零,即信号关于时间轴局部对称;第二步:组件识别;将原始断面客流数据中不同尺度的波动或趋势逐级分解开来,产生一系列具有不同特征尺度的数据序列;最低频率的IMF分量代表原始序列的长期趋势或均值,最高频率的IMF分量代表原始序列的短期特征;相关系数ρxy是用以反映变量之间相关关系密切程度的统计指标,相关系数ρxy取值在‑1到1之间,ρxy=0时,称X、Y不相关;|ρxy|=1时,称X、Y完全相关,此时,X、Y之间具有线性函数关系;|ρxy|<1时,X的变动引起Y的部分变动,|ρxy|越大,X的变动引起Y的变动就越大,|ρxy|>0.8时称为高度相关,当|ρxy|<0.3时,称为低度相关,其他为中度相关;这里,采用皮尔森相关系数;式中:n—样本数量,—样本的平均值,SX,SY—样本标准差;Xi为变量X的第i个样本值,Yi为变量Y的第i个样本值;第三步:BP神经网络预测;(1)样本的选取根据组件识别环节中剩余的有效序列,对其进行随机划分,80%为训练集,20%测试集;(2)样本的归一化处理由于采集的各数据单位不一致,因而须对数据进行[‑1,1]归一化处理,归一化方法为:X0=(X‑Xmin)/(Xmax‑Xmin),    13)式中:X、X0分别为转换前、后的值,Xmax、Xmin分别为样本的最大值和最小值;(3)BP神经网络构建;(3.1)输入、输出层节点确定;输入层有M个输入节点,分别代表断面客流序列不同的IMF分量;输出层有N个输出节点,分别代表对应的未来的断面客流量;(3.2)隐含层层数以及隐含层节点数确定;所述隐含层层数为单隐层;隐含层节点数公式:式中:n为隐含层节点数,M为输入节点数,N为输出节点数,a为0‑10之间的常数;(3.3)传递函数选择隐含层传递函数采用Tan‑Sigmoid型函数;输出层传递函数采用线性purelin函数;①隐含层输出计算:式中:neti表示隐含层第i个节点的输入;yi表示隐含层第i个节点的输出yi;xj表示输入层第j个节点的输入,j=1,…,M;wij表示隐含层第i个节点到输入层第j个节点之间的权值;θi表示隐含层第i个节点的阈值;表示隐含层的传递函数;②输出层输出计算:式中:netk表示输出层第k个节点的输入;ok表示输出层第k个节点的输出;wki表示输出层第k个节点到隐含层第i个节点之间的权值,i=1,…,q;ak表示输出层第k个节点的阈值,k=1,…,L;Ψ(x)表示输出层的传递函数;MATLAB实现BP神经网络模型初始化的权重和阈值参数是随机产生的;(3.4)学习参数选择①学习速率的确定:所述学习速率的选取范围在0.01‑0.8;②动量因子的确定:动量因子的取值范围在0‑1之间;(3.5)BP神经网络训练使用LM算法进行BP神经网络训练;LM算法为:设误差指标函数E(w)为式中:Yi—期望的网络输出向量;Yi′—实际的网络输出向量;P—样本数目;w—网络权值和阈值所组成的向量;ei(w)—第i个样本的网络权值和阈值所组成的向量误差;设wk表示第k次迭代的权值和阈值所组成的向量,新的权值和阈值所组成的向量wk+1为wk+1=wk+Δw;在LM方法中,权值增量Δw计算公式如下:Δw=[JT(w)J(w)+μI]‑1JT(w)e(w),   19)式中:e(w)为样本的网络权值和阈值所组成的向量误差;I—单位矩阵;μ—用户定义的学习率;J(w)—Jacobian矩阵,即:从19)式可看出:如果比例系数μ=0,则为高斯—牛顿法;如果μ取值很大,则LM算法接近梯度下降法,每迭代成功一步,则μ减小一些,这样在接近误差目标的时候,逐渐与高斯—牛顿法相似;高斯—牛顿法在接近误差的最小值的时候,计算速度更快,精度也更高;由于LM算法利用了近似的二阶导数信息,它比梯度下降法快得多;另外由于是正定的,所以19)式的解总是存在的,从这个意义上说,LM算法也优于高斯—牛顿法,因为对于高斯—牛顿法来说,JTJ是否满秩还是个潜在的问题;在实际的操作中,μ是一个试探性的参数,对于给定的μ,如果求得的Δw能使误差指标函数E(w)降低,则μ降低;反之,则μ增加;用19)式修改一次权值和阈值时需要求n阶的代数方程(n为网络中权值数目);LM算法的计算复杂度为O(n3/6),若n很大,则计算量和存储量都非常大;然而,每次迭代效率的显著提高,可大大改善其整体性能,特别是在精度要求高的时候;LM算法的计算步骤描述如下:①给出训练误差允许值ε,常数μ0和β(0<β<1),并且初始化权值和阈值向量,令k=0,μ=μ0;②计算网络输出及第k次迭代的权值和阈值所组成的向量误差指标函数值E(wk);③计算Jacobian矩阵J(wk);④计算Δw;⑤若E(wk)<ε,转到⑦;⑥以wk+1=wk+Δw为权值和阈值向量,计算误差指标函数E(wk+1),若E(wk+1)离散数据点集合c.写出正规方程:d.解正规方程组求出a0,a1,...,an;写出拟合多项式:多项式多项式系数ak=a0~an,k为多项式的次数  4)(2)记上、下包络局部均值组成的序列为m1,令h1(t)=x(t)‑m1,  5)(3)判断h1(t)是否满足上述IMF分量所需的两个条件,若不满足,则将其作为待处理信号,重复进行(6)、(7)两步,即,h2(t)=h1(t)‑m2,  6)如此重复k次,hk(t)为中间变量,mk为第k次上、下包络局部均值组成的序列;hk(t)=hk‑1(t)‑mk,    7)直至hk(t)满足IMF分量的两个条件;记hk(t)为得到第一个IMF分量c1(t);c1(t)=hk(t),  8)(4)将IMF分量从原始信号中分离出来,得:r1(t)=x(t)‑c1(t),   9)(5)将r1(t)作为新的原始信号,重复步骤(6)~(9),得到:当rn(t)变为单调函数时,停止分解过程;(6)将式9)、10)相加,得:式中:rn(t)为分解的残余量,表示信号的平均趋势;x(t)为原始信号,ci(t)为第i个IMF分量;通过以上“筛选”过程,原始信号x(t)最终可分解为n个平稳的IMF分量ci(t),i=1,2…n和一个残余量rn(t)的线性和,且各IMF分量的频率成分从大到小排列,c1(t)的频率最高,cn(t)的频率最低,表明各个IMF分量被分解到不同的频段,这有利于信号特征的提取;分析每个IMF分量与原始数据的相关性,剔除对原始序列影响不大的分量;所述学习速率选为0.01;所述确定动量因子为0.9。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京交通大学,未经北京交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201310699959.4/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top