[发明专利]一种可扩展的自适应宽度神经网络学习方法在审

专利信息
申请号: 202110278923.3 申请日: 2021-03-16
公开(公告)号: CN112966761A 公开(公告)日: 2021-06-15
发明(设计)人: 席江波;姜万冬;谢大帅;丛铭;房建武;吴田军;赵超英 申请(专利权)人: 长安大学
主分类号: G06K9/62 分类号: G06K9/62;G06N3/04;G06N3/08;G06N20/00
代理公司: 西安睿通知识产权代理事务所(特殊普通合伙) 61218 代理人: 惠文轩
地址: 710061 *** 国省代码: 陕西;61
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 扩展 自适应 宽度 神经网络 学习方法
【权利要求书】:

1.一种可扩展的自适应宽度神经网络学习方法,其特征在于,所述自适应宽度神经网络包括P个MWRBF网络,对应对待学习数据集学习P次;

第一个MWRBF网络学习待学习数据集的标签,第二个MWRBF网络在相同的待学习数据集上学习第一个MWRBF网络的剩余误差,以此类推,直到第P个MWRBF网络在相同的待学习数据集上学习第(P-1)个MWRBF网络的剩余误差;在自适应宽度神经网络中,每个MWRBF网络分别对应不同的学习任务,不同MWRBF网络之间以级联方式组织学习过程。

2.根据权利要求1所述的可扩展的自适应宽度神经网络学习方法,其特征在于,对于某一学习阶段的P个MWRBF网络h1,h2,...,hP,下采样后到P个MWRBF网络的线性层的输出为Φ1,Φ2,...,ΦP,设期望输出为数据集D,则自适应宽度神经网络的输出Y为:

Y=ΦW=[Φ1,Φ2,…,ΦP]W=Φ1W12W2+…+ΦPWP

其中,W=[W1,W2,…,WP],为全连接层的权值矩阵。

3.根据权利要求1所述的可扩展的自适应宽度神经网络学习方法,其特征在于,所述学习方法的具体过程为:设训练周期为Nc,将当前训练周期对应的剩余误差作为下一训练周期的初始期望输出,逐次减小训练的剩余误差;

对于每个训练周期,按以下步骤进行:

(1)对待学习数据集中的数据进行清洗操作即随机排序,再把待学习数据集X按顺序划分为Nb个训练子集,相邻两个训练子集之间的重叠因子为λ,0<λ<1;

(2)将第一个训练子集输入第一个MWRBF网络中,以对应的数据标签为期望输出,对第一个MWRBF网络的网络权值进行更新,并得到其网络输出对应的第一剩余误差;将该第一剩余误差作为第二个MWRBF网络的期望输出,同时将第一个训练子集输入第二个MWRBF网络中,对第二个MWRBF网络的网络权值进行更新,并得到其网络输出对应的第二剩余误差;将该第二剩余误差作为第二个MWRBF网络的期望输出,同时将第一个训练子集输入第三个MWRBF网络中;以此类推,直到得到第P个MWRBF网络输出对应的第P剩余误差,完成一次迭代过程;

(3)将前一次迭代得到的剩余误差作为下一次迭代中的第一个MWRBF网络的期望输出,重复步骤(2)的迭代过程,直到达到迭代终止条件;

(4)对于剩余的(Nb-1)个训练子集,按顺序依次执行步骤(2)和步骤(3),即完成一个训练周期的学习。

4.根据权利要求3所述的可扩展的自适应宽度神经网络学习方法,其特征在于,所述迭代终止条件为训练后的网络对验证集的识别精度连续ε次均不再增长,3≤ε≤10,且为整数。

5.根据权利要求4所述的可扩展的自适应宽度神经网络学习方法,其特征在于,所述验证集为在学习任务开始前从原始待学习数据集中按比例取出的数据,即原始待学习数据集按比例划分为训练集和验证集,训练集即为待学习数据集。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于长安大学,未经长安大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202110278923.3/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top