[发明专利]一种基于深度重构模型的功率放大器行为建模方法有效
申请号: | 201510629062.3 | 申请日: | 2015-09-28 |
公开(公告)号: | CN105224985B | 公开(公告)日: | 2017-10-31 |
发明(设计)人: | 邵杰;金相君;杨恬甜;安文威;张鑫 | 申请(专利权)人: | 南京航空航天大学 |
主分类号: | G06N3/02 | 分类号: | G06N3/02;G06N3/08 |
代理公司: | 南京瑞弘专利商标事务所(普通合伙)32249 | 代理人: | 徐激波 |
地址: | 210016 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 模型 功率放大器 行为 建模 方法 | ||
1.一种基于深度重构模型的功率放大器行为建模方法,其特征在于:包括以下步骤:
步骤A:准备系统行为建模所需的功率放大器数字化后的输入信号数据向量x=[x(1),x(2),…,x(N)]和输出信号数据向量yd=[yd,1,yd,2,…,yd,N],其中N为数据长度;
步骤B:将输入和输出数据归一化;
步骤C:初始化RBM网络,RBM网络的模型结构有两层:可见层和隐含层,其过程如下:
步骤C-1:设置RBM网络可见层有N个单元,构成可见层单元向量v=[v1,v2,…vN],接收外部的输入变量并将输入变量传递到隐含层单元;隐含层有L个单元,构成隐含层单元向量h=[h1,h2,…hL];从可见层到隐含层有N×L维权系数矩阵可见层单元有1×N维偏置向量a=[a1,a2,…aN],隐含层单元有1×L偏置向量b=[b1,b2,…bL];构成RBM网络的系数矩阵θ={R,a,b};
步骤C-2:设置RBM网络的系数矩阵θ=0;
步骤C-3:设置RBM网络的训练最大迭代次数T;
步骤C-4:设置RBM网络重构误差的误差阈值为μ;
步骤C-5:设置RBM网络的学习速率为φ;
步骤C-6:设置重构误差初始值Ereconst(0)=0;
步骤D:使用输入数据训练二进制RBM网络,它的随机变量(v,h)只从{0,1}取值,vi和hj是可见层单元i和隐含层单元j的二进制状态,Rij是可见层单元i和隐含层单元j的权系数;每一次迭代训练由两个RBM网络组成,其中,底层RBM的隐含层连接顶层RBM的可见层;其过程如下:
步骤D-1:初始化可见层输入数据
步骤D-2:对于所有隐含层的节点j:计算也就是进行层与层之间的映射运算其中,是sigmoid激励函数;依据进行吉布斯采样(Gibbs Sampling)得到
步骤D-3:对于所有可见层的节点i:计算即进行层与层之间的映射运算依据进行吉布斯采样得到
步骤D-4:对于所有隐含层的节点j:计算即进行层与层之间的映射运算依据进行吉布斯采样得到
步骤D-5:RBM网络的学习算法是基于梯度上升的对数似然函数;计算梯度参数ΔRij(t),Δai(t),Δbj(t),其中t为RBM网络训练迭代次数:
其中,Edata[·]为基于数据的期望,Emodel[·]为模型期望;
步骤D-6:计算更新的Rij(t+1)、ai(t+1)、bj(t+1);
Rij(t+1)=Rij(t)+φΔRij(t)
ai(t+1)=ai(t)+φ·Δai(t)
bj(t+1)=bj(t)+φ·Δbj(t)
步骤D-7:用v0和v1计算RBM网络的重构误差Ereconst,
Ereconst(t+1)=Ereconst(t)+||v0-v1||
其中,||·||为2-范数;
步骤D-8:迭代次数加1,即t=t+1;当迭代次数t=T或者重构误差Ereconst(t)≤μ时,结束训练,跳到步骤D-9;否则,返回步骤D-1,继续训练;
步骤D-9:获得目标更新的权系数为R;
步骤E:初始化ENN,ENN的模型结构有四层:输入层、隐含层、承接层和输出层;其过程如下:
步骤E-1:设置ENN输入层有N个神经元,接受外部的输入变量u=[u1,u2,…uN]并将输入变量传递到隐含层;隐含层有L个神经元,每个神经元都具有传递函数f=Hi(p)(i=1,2,…,L),隐含层向量H(p)=[H1(p),H2(p),…HL(p)];承接层是隐含层对于神经元的延时,同时拥有一个反馈系数为α的自反馈,所以该层的神经元个数与隐含层相同,承接层向量Xc(p)=[Xc,1(p),Xc,2(p),…Xc,L(p)];输出层有M个神经元,该层神经元的输出ymy,(m(m=1,1,2,2,…,,MM),)是隐含层神经元输出的线性组合;
步骤E-2:设置最大迭代次数为Nmax;
步骤E-3:设置误差函数的误差阈值为ε;
步骤E-4:在ENN模型中,有三种权系数矩阵:从隐含层到输出层的L×M维的权系数矩阵W1;从输入层到隐含层的N×L维的权系数矩阵W2;从承接层到隐含层的L×L维的权系数矩阵W3;设置网络的初始权值,其中输入层到隐含层的初始权值W2(0)使用RBM网络的训练结果,即
W1(0)=0,W2(0)=R,W3(0)=0
步骤E-5:设置网络的学习速率η1,η2,η3;
步骤E-6:设置承接层的初始值Xc(0)=0;
步骤E-7:设置承接层的自反馈系数α;
步骤F:利用ENN对行为模型进行建模,其过程如下:
步骤F-1:根据ENN,由动态方程计算ENN各层的输出:
y(p)=W1(p)H(p)
H(p)=f[W2(p)u+W3(p)Xc(p)]
Xc(p)=αH(p-1)
其中p为迭代次数,f是sigmoid激励函数;
步骤F-2:计算目标误差函数,其定义为:
其中y(p)为第p次迭代的ENN网络模型的输出,为系统的实际归一化输出;如果误差函数E(p)>ε,进行步骤F-3;如果误差函数E(p)<ε,则进行步骤G;
步骤F-3:用最速下降算法训练网络,得到模型的权值矩阵的变化量:
其中
这里j表示输入层的第j个神经元,i表示隐含层的第i个神经元,k表示承接层的第k个神经元,m代表输出层的第m个神经元,f′l(·)是激励函数f的导数;
步骤F-4:迭代次数加1,即p=p+1;当迭代次数小于最大迭代次数Nmax时,继续步骤F-5;当迭代次数大于最大迭代次数Nmax时,停止迭代,执行步骤G;
步骤F-5:根据ΔW1(p),ΔW2(p),ΔW3(p),更新权值系数,其中
W1(p+1)=W1(p)+ΔW1(p)
W2(p+1)=W2(p)+ΔW2(p)
W3(p+1)=W3(p)+ΔW3(p)
步骤F-6:返回步骤F-1;
步骤G:通过步骤F得到的权系数,计算ENN模型最终的输出y。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京航空航天大学,未经南京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201510629062.3/1.html,转载请声明来源钻瓜专利网。