[发明专利]神经网络节点的自增减方法、计算机设备及存储介质有效

专利信息
申请号: 201810772462.3 申请日: 2018-07-13
公开(公告)号: CN109102067B 公开(公告)日: 2021-08-06
发明(设计)人: 洪国强;肖龙源;蔡振华;李稀敏;刘晓葳;谭玉坤 申请(专利权)人: 厦门快商通信息技术有限公司
主分类号: G06N3/04 分类号: G06N3/04
代理公司: 厦门仕诚联合知识产权代理事务所(普通合伙) 35227 代理人: 乐珠秀
地址: 361007 福建省厦门*** 国省代码: 福建;35
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种神经网络节点的自增减方法、计算机设备及存储介质,所述方法为根据需求设计的神经网络结构,并使用数据对神经网络模型进行训练,使神经网络模型收敛或者神经网络的迭代次数超过一定的阈值;并逐层的神经元进行增减操作处理,本发明通过自动增减神经网络节点,一方面提高神经元的学习能力,另一方面减少神经元的无用计算量。
搜索关键词: 神经网络 节点 增减 方法 计算机 设备 存储 介质
【主权项】:
1.一种神经网络节点的自增减方法,其特征在于,应用于神经网络训练,所述神经网络节点的自增减方法包括如下步骤:步骤一,根据需求设计神经网络结构,并使用数据对神经网络模型进行训练,使神经网络模型收敛或者神经网络的迭代次数超过一定的阈值;步骤二,逐层的神经元进行增减操作处理,将当前的神经网络模型标记为Mo;判断当前层是否存在可减去的神经元,若当前层存在可减去的神经元,则进入步骤三,否则,进入步骤五;步骤三,将当前层的神经元进行减操作处理,并将减操作处理后的神经网络模型标记为Mnew;步骤四,进行迭代训练,当神经网络模型Mnew收敛或一定迭代后神经网络模型Mnew的损失函数值与减操作处理前的神经网络模型Mo的损失函数值的误差比小于第一设定值a1,则将神经网络模型设为神经网络模型Mnew,返回步骤二;否则,将神经网络模型还原为神经网络模型Mo,并进入步骤五;步骤五,将当前层的神经元进行增操作处理,并将增操作处理后的神经网络模型标记为Mnew,在当前层增添一个神经元,并随机进行初始化,所述当前层为第i层,该增添的神经元为第i层第j个神经元,标记为Xij,进入步骤六;步骤六,使用数据仅对新增的神经元Xij的输入权重向量Winij和输出权重向量Winoutij进行迭代更新,一定迭代次数或收敛后,再将该增操作处理后的神经网络模型Mnew进行迭代训练;训练完毕后比较神经网络模型Mnew的损失函数值与增操作处理前的神经网络模型Mo的损失函数值的误差比小于第二设定值a2,则接受神经网络模型Mnew,并返回步骤五,否则返回步骤二进入下一层神经元的增减操作处理,直至所有的神经元层处理完后结束。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于厦门快商通信息技术有限公司,未经厦门快商通信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201810772462.3/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top