[发明专利]一种应用于微波器件的新型深层神经网络自动建模方法在审
申请号: | 201911210240.3 | 申请日: | 2019-11-28 |
公开(公告)号: | CN110765704A | 公开(公告)日: | 2020-02-07 |
发明(设计)人: | 那伟聪;张万荣;谢红云;金冬月 | 申请(专利权)人: | 北京工业大学 |
主分类号: | G06F30/27 | 分类号: | G06F30/27;G06F30/367;G06N3/04;G06N3/08 |
代理公司: | 11203 北京思海天达知识产权代理有限公司 | 代理人: | 吴荫芳 |
地址: | 100124 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 微波器件 神经网络 隐藏层 建模 神经网络建模 神经网络结构 神经网络模型 高度非线性 自适应算法 后续电路 器件特性 训练过程 原始器件 自动建模 自动确定 归一化 浅层 维度 自动化 应用 | ||
1.一种应用于微波器件的新型深层神经网络自动建模方法,其特征在于:
步骤1:根据实际的微波建模问题,确定深层神经网络模型中输入变量x和输出变量y的数目,构建混合型深层神经网络结构,所述的混合型深层神经网络结构包含1个输入层,L个Batch Normalization(BN)层,L个Sigmoid隐藏层(L≥3)和1个输出层,其中每个Sigmoid隐藏层前均连接一个BN层,该BN层相当于一个归一化器,用于对其后连接的Sigmoid隐藏层的输入数值进行归一化处理,每个BN层和Sigmoid隐藏层中神经元的数目是根据建模问题的难易程度预先确定的,且在训练过程中固定不变,其数量范围在50到150之间;
步骤2:初始化计数k=1,通过测量或者仿真,获取建模所需的训练数据和验证数据,分别用于深层神经网络的训练和验证;
步骤3:k=k+1,初始化深层神经网络的权重参数,采用结合BN层和Sigmoid隐藏层的混合型神经网络反向传播算法,分别输入训练数据和验证数据对深层神经网络进行训练和验证,得到当前阶段(即第k个阶段)神经网络的训练误差和验证误差
步骤4:采用自适应算法确定深层神经网络中BN层和Sigmoid隐藏层的层数:
如果系统训练过程中,当前深层神经网络的训练误差大于用户期望的测试误差阈值Ed,则在原有深层神经网络结构中增加一个BN层和一个Sigmoid隐藏层,然后返回步骤3;
如果当前深层神经网络的训练误差小于等于用户期望的测试误差阈值Ed,但测试误差大于用户期望的测试误差阈值Ed,增加训练数据,然后返回步骤3;
如果当前深层神经网络的训练误差小于等于用户期望的测试误差阈值Ed,且测试误差小于等于用户期望的测试误差阈值Ed,训练结束;
步骤5:得到模型,训练好的深层神经网络模型可代替原始器件进行后续电路或系统的仿真与设计。
2.根据权利要求1所述的一种应用于微波器件的新型深层神经网络自动建模方法,其特征在于:
所述的混合型深层神经网络结构中第l个BN层的第i个神经元输出第l个Sigmoid隐藏层的第i个神经元输出以及输出层的第i个神经元输出yi分别为
其中n表示输入变量的个数,Nl-1表示第l-1个Sigmoid隐藏层神经元的个数(l=2,3,…,L),f(·)表示Sigmoid激活函数,表示深层神经网络第l个Sigmoid隐藏层中第j个神经元与第l+1个BN层中第i个神经元之间的权值,表示深层神经网络第l个Sigmoid隐藏层中第j个神经元的偏差,和分别表示第l个BN层中i个神经元输出的缩放量和平移量,和分别表示通过所有训练数据计算得到的第l个BN层中第i个神经元输出的期望值和方差。
3.根据权利要求1所述的一种应用于微波器件的新型深层神经网络自动建模方法,其特征在于:所述的结合BN层和Sigmoid隐藏层的混合型神经网络反向传播算法中,误差函数相对于神经网络的第i个输出yi的局部梯度以及误差函数相对于第l个BN层中第i个神经元的局部梯度的计算公式分别为
其中,yi表示深层神经网络对训练数据x的第i个输出的预测值,di表示训练数据中x对应的第i个输出的实际值,Nl表示第l个Sigmoid隐藏层神经元的个数(l=1,2,…,L-1)。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工业大学,未经北京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911210240.3/1.html,转载请声明来源钻瓜专利网。