[发明专利]基于梯度下降法与广义逆的复值神经网络训练方法在审
申请号: | 201710091587.5 | 申请日: | 2017-02-20 |
公开(公告)号: | CN106875002A | 公开(公告)日: | 2017-06-20 |
发明(设计)人: | 桑兆阳;刘芹;龚晓玲;张华清;陈华;王健 | 申请(专利权)人: | 中国石油大学(华东) |
主分类号: | G06N3/02 | 分类号: | G06N3/02 |
代理公司: | 济南圣达知识产权代理有限公司37221 | 代理人: | 张勇 |
地址: | 266580 山东省*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明涉及一种基于梯度下降法与广义逆的复值神经网络训练方法,步骤一,选择单隐层复值神经网络模型;步骤二,利用梯度下降法和广义逆计算单隐层复值神经网络中的权值矩阵和权值向量,步骤三,根据权值矩阵和权值向量,获取复值神经网络网络参数,进行计算均方误差;将迭代次数加1,返回步骤二。本发明的隐层输入权值是通过梯度下降法迭代产生,输出权值始终通过广义逆来求解。本方法迭代次数少,相应的训练时间短,收敛速度快,并且学习效率高,同时所需的隐层节点个数少。因此,本发明比BSCBP方法与CELM方法能够较为准确的反映复值神经网络模型的性能。 | ||
搜索关键词: | 基于 梯度 下降 广义 神经网络 训练 方法 | ||
【主权项】:
一种基于梯度下降法与广义逆的复值神经网络训练方法,其特征是:所述方法步骤包括:(1)选择单隐层复值神经网络模型对样本数据集进行建模;(2)根据步骤(1)中选择的单隐层复值神经网络模型,利用广义逆计算所述单隐层复值神经网络中的权值矩阵,将迭代次数初始值设置为1,利用梯度下降法计算所述单隐层复值神经网络中的权值向量;(3)根据步骤(2)中计算出的所述权值矩阵和所述权值向量,获取复值神经网络网络参数,计算当前样本数据的均方误差;判断当前迭代次数是否等于最大迭代次数,若是,结束训练;若否,将当前迭代次数加1,返回步骤(2)。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国石油大学(华东),未经中国石油大学(华东)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201710091587.5/,转载请声明来源钻瓜专利网。