[发明专利]一种基于WaveNet神经网络结构的功率放大器行为建模方法有效
申请号: | 201910762293.X | 申请日: | 2019-08-19 |
公开(公告)号: | CN110610030B | 公开(公告)日: | 2021-06-22 |
发明(设计)人: | 邵杰;刘姝;周凡;孔天姣;胡久元 | 申请(专利权)人: | 南京航空航天大学 |
主分类号: | G06F30/367 | 分类号: | G06F30/367;G06F30/27;G06N3/04;G06N3/08 |
代理公司: | 南京瑞弘专利商标事务所(普通合伙) 32249 | 代理人: | 吴旭 |
地址: | 210016 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 wavenet 神经网络 结构 功率放大器 行为 建模 方法 | ||
1.一种基于WaveNet神经网络结构的功率放大器行为建模方法,其特征在于,包括如下步骤:
步骤A:采集功率放大器的输入信号数据向量xin=[xin(1),xin(2),…,xin(N)]和输出信号数据向量yout=[yout(1),yout(2),…,yout(N)],其中,N为数据长度;
步骤B:将输入和输出数据进行归一化:
其中,max(·)表示求向量中最大值的运算,min(·)表示求向量中最小值的运算,t表示时间节点;
得到归一化输入信号数据向量和归一化输出信号数据向量
步骤C:构建WaveNet神经网络结构模型,所述WaveNet神经网络结构模型由3组网络构成:高维映射网络、时间卷积网络、全连接输出网络;
步骤D:对构建好的所述WaveNet神经网络结构模型进行训练;
步骤E:模型训练完毕,根据给定的输入,得到所述WaveNet神经网络结构模型的输出序列ypred;
所述步骤C包括如下具体步骤:
步骤C-1:构建一维数据向多维数据的高维映射网络:设定映射维度为D,输入节点数为输入序列长度,隐含节点数为D,将输入数据一一映射成D维空间向量,输入序列中t时间节点的数据的映射操作为:
z(t)D为映射的D维向量;fd1为激活函数,采用RELU修正线性单元作为激活函数;Wd1为第一层的权值矩阵,采用服从[0,1]上的均匀分布进行初始化;Bd1为第一层网络偏置,初始化为0;
经过高维映射网络之后,输入数据由映射为zD=[z(1)D,z(2)D,...z(N)D];
步骤C-2:构建TCN时间卷积网络:所述TCN时间卷积网络为深度卷积神经网络,包括L层因果扩展卷积层以及L层因果卷积层;所述TCN时间卷积网络整体的感受野大小为2L+1,即一个输出由长度为2L+1的序列堆栈多层映射所得;所述TCN时间卷积网络的输入为D维向量序列zD,序列长度为N;输入首先经过因果扩展卷积层,然后经过因果卷积层,直到将序列长度映射为1;
步骤C-3:批标准化处理:在每个卷积层之后,添加批标准化,使得这一层输出数据的每个维度均值都为0,方差都为1;
步骤C-4:构建全连接输出网络,通过所述全连接输出网络将输出向量映射为标量数据,作为当前时间节点的预测值:
ypred(t)=f2×L+2(W2×L+2·z2×L+2(t)D+B2×L+2)
其中,f2×L+2为最后一层激活函数——sigmoid函数;z2×L+2(t)D为第t个时间节点卷积网络的最后一层输出;ypred(t)为模型输出,W2×L+2为该全连接输出网络的权值矩阵,采用服从[0,1]上的均匀分布进行初始化;B2×L+2为该全连接输出网络的偏置,初始化为0。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京航空航天大学,未经南京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910762293.X/1.html,转载请声明来源钻瓜专利网。