[发明专利]一种新能源汽车动力电池SOH在线估算的方法无效

专利信息
申请号: 201410199230.5 申请日: 2014-05-12
公开(公告)号: CN104035037A 公开(公告)日: 2014-09-10
发明(设计)人: 罗敏;孙卫明;肖勇;赵伟;黄默涵;孟金岭 申请(专利权)人: 广东电网公司电力科学研究院
主分类号: G01R31/36 分类号: G01R31/36
代理公司: 广州知友专利商标代理有限公司 44104 代理人: 周克佑
地址: 510080 广东*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要: 一种电动汽车动力电池SOH在线估算的方法:S1.电池SOH预测模型的建立及优化,采用具有输出-输入反馈机制的改进Elman网络算法:OIF Elman网络;S2.电池SOH模型输入参数的选择:电池内阻、电流和温度作为模型的输入参数;S3.在Matlab7.1环境下运行;S4.验证。本发明在样本点较少时,无论在训练速度上,还是在预测精度上,OIF Elman网络明显优于Elman网络。OIF Elman网络提高了网络的泛化能力,既降低了对训练样本个数的需求,又能提高预测精度,在动力电池剩余寿命(SOH)预测中可以成功应用。
搜索关键词: 一种 新能源 汽车 动力电池 soh 在线 估算 方法
【主权项】:
一种电动汽车动力电池SOH在线估算的方法,其特征是:包括以下步骤:S1电池SOH预测模型的建立及优化采用具有输出‑输入反馈机制的改进Elman网络算法:OIF Elman网络,OIF Elman分为3层:输入层、隐层和输出层,其中输入层神经元数学模型为xu(k)=u(k‑1) (1);xu(k)表示k时刻输入层节点状态,u(k)表示k时刻系统输入量;隐层神经元的数学模型为:x(k)=f(W11xc(k)+W12xu(k)+W14yc(k)) (2)xc(k)=αxc(k‑1)+x(k‑1) (3)yc(k)=γyc(k‑1)+y(k‑1) (4);其中,x(k)表示k时刻隐层节点的状态;xc(k)表示k时刻联系单元1节点的状态;yc(k)表示k时刻联系单元2节点的状态;W11表示隐含节点与联系单元的连接权矩阵;W12表示隐层节点与输入节点之间的连接权矩阵;W14表示隐层节点与联系单元2之间的连接权矩阵;输出层神经元的数学模型为:y(k)=W13x(k) (5);其中,y(k)表示k时刻输出层节点的状态;W13表示隐层节点与输出节点之间的连接权矩阵;所述的OIF Elman网络的隐层节点的输入为:输入层节点状态、联系单元1状态、联系单元2状态,设第k步系统的实际输出为yd(k),定义误差函数为:<mrow><mi>E</mi><mrow><mo>(</mo><mi>k</mi><mo>)</mo></mrow><mo>=</mo><mfrac><mn>1</mn><mn>2</mn></mfrac><msup><mrow><mo>(</mo><msub><mi>y</mi><mi>d</mi></msub><mrow><mo>(</mo><mi>k</mi><mo>)</mo></mrow><mo>-</mo><mi>y</mi><mrow><mo>(</mo><mi>k</mi><mo>)</mo></mrow><mo>)</mo></mrow><mi>T</mi></msup><mrow><mo>(</mo><msub><mi>y</mi><mi>d</mi></msub><mrow><mo>(</mo><mi>k</mi><mo>)</mo></mrow><mo>-</mo><mi>y</mi><mrow><mo>(</mo><mi>k</mi><mo>)</mo></mrow><mo>)</mo></mrow><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>6</mn><mo>)</mo></mrow><mo>;</mo></mrow>将E对连接权W11、W12、W13、W14分别求偏导,由梯度下降法可得OIF Elman网络的学习算法:ΔWij13=η3δi0xj(k) i=1,2,…,m;j=1,2,…,n (7)ΔWjq12=η2δjhuq(k‑1) j=1,2,…,n;q=1,2,…,r (8)<mrow><mi>&Delta;</mi><msup><msub><mi>W</mi><mi>jl</mi></msub><mn>11</mn></msup><mo>=</mo><msub><mi>&eta;</mi><mi>l</mi></msub><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>m</mi></munderover><mrow><mo>(</mo><msup><msub><mi>&delta;</mi><mi>i</mi></msub><mn>0</mn></msup><msup><msub><mi>W</mi><mi>ij</mi></msub><mn>13</mn></msup><mo>)</mo></mrow><mfrac><mrow><msub><mrow><mo>&PartialD;</mo><mi>x</mi></mrow><mi>i</mi></msub><mrow><mo>(</mo><mi>k</mi><mo>)</mo></mrow></mrow><mrow><mo>&PartialD;</mo><msup><msub><mi>W</mi><mi>jl</mi></msub><mn>11</mn></msup></mrow></mfrac><mi>j</mi><mo>=</mo><mn>1,2</mn><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><mi>n</mi><mo>;</mo><mi>l</mi><mo>=</mo><mn>1,2</mn><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><mi>n</mi><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>9</mn><mo>)</mo></mrow></mrow><mrow><mi>&Delta;</mi><msup><msub><mi>W</mi><mi>js</mi></msub><mn>14</mn></msup><mo>=</mo><msub><mi>&eta;</mi><mn>4</mn></msub><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>m</mi></munderover><mrow><mo>(</mo><msup><msub><mi>&delta;</mi><mi>i</mi></msub><mn>0</mn></msup><msup><msub><mi>W</mi><mi>ij</mi></msub><mn>13</mn></msup><mo>)</mo></mrow><mfrac><mrow><msub><mrow><mo>&PartialD;</mo><mi>x</mi></mrow><mi>i</mi></msub><mrow><mo>(</mo><mi>k</mi><mo>)</mo></mrow></mrow><mrow><mo>&PartialD;</mo><msup><msub><mi>W</mi><mi>js</mi></msub><mn>14</mn></msup></mrow></mfrac><mi>j</mi><mo>=</mo><mn>1,2</mn><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><mi>n</mi><mo>;</mo><mi>s</mi><mo>=</mo><mn>1,2</mn><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><mi>m</mi><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>10</mn><mo>)</mo></mrow></mrow><mrow><mfrac><mrow><msub><mrow><mo>&PartialD;</mo><mi>x</mi></mrow><mi>i</mi></msub><mrow><mo>(</mo><mi>k</mi><mo>)</mo></mrow></mrow><mrow><mo>&PartialD;</mo><msup><msub><mi>W</mi><mi>js</mi></msub><mn>14</mn></msup></mrow></mfrac><mo>=</mo><msubsup><mi>f</mi><mi>j</mi><mo>&prime;</mo></msubsup><mrow><mo>(</mo><mo>&CenterDot;</mo><mo>)</mo></mrow><msub><mi>y</mi><mi>s</mi></msub><mrow><mo>(</mo><mi>k</mi><mo>-</mo><mn>1</mn><mo>)</mo></mrow><mo>+</mo><mi>&gamma;</mi><mfrac><mrow><msub><mrow><mo>&PartialD;</mo><mi>x</mi></mrow><mi>i</mi></msub><mrow><mo>(</mo><mi>k</mi><mo>-</mo><mn>1</mn><mo>)</mo></mrow></mrow><msup><msub><mrow><mo>&PartialD;</mo><mi>W</mi></mrow><mi>js</mi></msub><mn>14</mn></msup></mfrac><mi>j</mi><mo>=</mo><mn>1,2</mn><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><mi>n</mi><mo>;</mo><mi>s</mi><mo>=</mo><mn>1,2</mn><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><mi>m</mi><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>11</mn><mo>)</mo></mrow></mrow>其中,η1,η2,η3,η4分别为W11、W12、W13、W14的学习步长,0≤γ<1为联系单元2的自连接反馈增益因子,δi0和δjh为误差信号;δi0=(ydi(k)‑yi(k)) (12)<mrow><msup><msub><mi>&delta;</mi><mi>j</mi></msub><mi>h</mi></msup><mo>=</mo><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>m</mi></munderover><mrow><mo>(</mo><msup><msub><mi>&delta;</mi><mi>i</mi></msub><mn>0</mn></msup><msup><msub><mi>W</mi><mi>ij</mi></msub><mn>13</mn></msup><mo>)</mo></mrow><msubsup><mi>f</mi><mi>j</mi><mo>&prime;</mo></msubsup><mrow><mo>(</mo><mo>&CenterDot;</mo><mo>)</mo></mrow><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>13</mn><mo>)</mo></mrow></mrow><mrow><mfrac><mrow><msub><mrow><mo>&PartialD;</mo><mi>x</mi></mrow><mi>i</mi></msub><mrow><mo>(</mo><mi>k</mi><mo>)</mo></mrow></mrow><msup><msub><mrow><mo>&PartialD;</mo><mi>W</mi></mrow><mrow><mi>j</mi><mn>1</mn></mrow></msub><mn>11</mn></msup></mfrac><mo>=</mo><msubsup><mi>f</mi><mi>j</mi><mo>&prime;</mo></msubsup><mrow><mo>(</mo><mo>&CenterDot;</mo><mo>)</mo></mrow><msub><mi>x</mi><mi>l</mi></msub><mrow><mo>(</mo><mi>k</mi><mo>-</mo><mn>1</mn><mo>)</mo></mrow><mo>+</mo><mi>&alpha;</mi><mfrac><mrow><msub><mrow><mo>&PartialD;</mo><mi>x</mi></mrow><mi>i</mi></msub><mrow><mo>(</mo><mi>k</mi><mo>-</mo><mn>1</mn><mo>)</mo></mrow></mrow><msup><msub><mrow><mo>&PartialD;</mo><mi>W</mi></mrow><mi>jl</mi></msub><mn>11</mn></msup></mfrac><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>14</mn><mo>)</mo></mrow><mo>;</mo></mrow>所述的OIF Elman网络学习算法采用梯度下降法,即自适应学习速率动量梯度下降反向传播算法,它既能提高网络的训练速率,又能有效抑制网络陷入局部极小点,学习的目的是用网络的实际输出值与输出样本值的差值来修改权值和阀值,使网络输出层的误差平方和最小;S2电池SOH模型输入参数的选择选择电池内阻、电流和温度作为模型的输入参数;确定隐层神经元的个数n2和输入层神经元个数n1:隐层神经元的个数n2和输入层神经元个数n1之间有以下近似关系:n2=2n1+1 (14)由样本数据可知,网络输入层有3个神经元,输出层有1个神经元,故分别将中间层神经元的数目设置为7;S3在Matlab7.1环境下运行对网络输入层和输出层的各单元值进行标准化处理,并使他们处于[0,1]或[‑1,1]中,采用的输入参数的标准化方法为:<mrow><mover><mi>x</mi><mo>^</mo></mover><mo>=</mo><mfrac><mrow><mi>x</mi><mo>-</mo><msub><mi>x</mi><mi>min</mi></msub></mrow><mrow><msub><mi>x</mi><mi>max</mi></msub><mo>-</mo><msub><mi>x</mi><mi>min</mi></msub></mrow></mfrac><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>15</mn><mo>)</mo></mrow></mrow>式中,xmax为该组变量的最大值,xmin为该组变量的最小值;S4验证电池SOH预测模型的仿真分析选用6组相同型号的电池,采用相同充电制度充满电,在不同电流、不同温度的条件下,对3组电池进行放电试验,获得实测数据100组,选择其中80组数据对该模型进行训练,网络训练过程在Matlab7.1环境下运行,仿真中用改进Elman和Elman两种神经网络建模进行预测,分别得到预测结果,对比分析两者与实测SOH的误差。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广东电网公司电力科学研究院,未经广东电网公司电力科学研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201410199230.5/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top