[发明专利]基于梯度下降法与广义逆的复值神经网络训练方法在审

专利信息
申请号: 201710091587.5 申请日: 2017-02-20
公开(公告)号: CN106875002A 公开(公告)日: 2017-06-20
发明(设计)人: 桑兆阳;刘芹;龚晓玲;张华清;陈华;王健 申请(专利权)人: 中国石油大学(华东)
主分类号: G06N3/02 分类号: G06N3/02
代理公司: 济南圣达知识产权代理有限公司37221 代理人: 张勇
地址: 266580 山东省*** 国省代码: 山东;37
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 梯度 下降 广义 神经网络 训练 方法
【权利要求书】:

1.一种基于梯度下降法与广义逆的复值神经网络训练方法,其特征是:所述方法步骤包括:

(1)选择单隐层复值神经网络模型对样本数据集进行建模;

(2)根据步骤(1)中选择的单隐层复值神经网络模型,利用广义逆计算所述单隐层复值神经网络中的权值矩阵,将迭代次数初始值设置为1,利用梯度下降法计算所述单隐层复值神经网络中的权值向量;

(3)根据步骤(2)中计算出的所述权值矩阵和所述权值向量,获取复值神经网络网络参数,计算当前样本数据的均方误差;判断当前迭代次数是否等于最大迭代次数,若是,结束训练;若否,将当前迭代次数加1,返回步骤(2)。

2.如权利要求1所述的一种基于梯度下降法与广义逆的复值神经网络训练方法,其特征是:所述步骤(1)中的所述单隐层复值神经网络模型为:

所述单隐层复值神经网络模型中的输入层、隐层和输出层神经元个数分别为L、M和1;给定Q个输入样本;其样本矩阵为Z=(zij)L×Q、输入样本相应的理想输出矩阵为D=(d1,d2…dQ)T均为复数;第q个样本的输入为 其中,i=1,2…L;第q个样本的理想输出为dq∈C。

3.如权利要求2所述的一种基于梯度下降法与广义逆的复值神经网络训练方法,其特征是:所述步骤(1)中的所述单隐层复值神经网络模型中的所述隐层的激活函数为gc:C→C;连接输入层和隐层的权值矩阵为W=(wij)M×L=WR+iWI,其中,WR为W的实部,WI为W的虚部;输入层与第i个隐节点的连接权值记为wi=(wi1,wi2…wiL)∈CL,其中,i=1,2…M;连接隐层和输出层的权值向量为V=(v1,v2…vM)T=VR+iVI,其中,VR为V的实部,VI为V的虚部;第k个隐节点与输出层的连接权值记为vk∈C,其中,k=1,2…M。

4.如权利要求3所述的一种基于梯度下降法与广义逆的复值神经网络训练方法,其特征是:所述步骤(2)中的具体步骤为:

(2-1)初始化输入层到隐层的权值矩阵,获取初始权值矩阵W0,W0在给定区间内随机赋值;

(2-2)利用梯度下降法和广义逆计算单隐层复值神经网络中的权值矩阵和权值向量。

5.如权利要求4所述的一种基于梯度下降法与广义逆的复值神经网络训练方法,其特征是:所述步骤(2-2)中的所述通过广义逆计算隐层到输出层的权值矩阵V的具体步骤为:

(2-2a-1)根据步骤(2-1)中的所述初始权值矩阵W0与步骤(1)中的样本矩阵Z计算隐层的输入矩阵U=(uij)M×Q

(2-2a-2)对矩阵步骤(2-2a-1)中的所述输入矩阵U的实部和虚部分别激活,得到隐层的输出矩阵H=(hij)M×Q,H=gc(UR)+igc(UI)=HR+iHI,其中,HR为H的实部,HI为H的虚部;

(2-2a-3):通过广义逆计算隐层到输出层的权值矩阵V,

其中,H为步骤(2-2a-2)中隐层的输出矩阵,D为步骤(1)中的所述理想输出矩阵。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国石油大学(华东),未经中国石油大学(华东)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201710091587.5/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top