[发明专利]一种非常深度神经网络的自动加层训练方法在审
申请号: | 201710002088.4 | 申请日: | 2017-01-03 |
公开(公告)号: | CN108268949A | 公开(公告)日: | 2018-07-10 |
发明(设计)人: | 盛益强;李南星;赵震宇 | 申请(专利权)人: | 中国科学院声学研究所;上海尚恩华科网络科技股份有限公司 |
主分类号: | G06N3/08 | 分类号: | G06N3/08 |
代理公司: | 北京方安思达知识产权代理有限公司 11472 | 代理人: | 王宇杨;杨青 |
地址: | 100190 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明涉及一种非常深度神经网络的自动加层训练方法,包括:步骤1)、确定训练集、非常深度神经网络的初始结构,并对所述非常深度神经网络及相关参数进行初始化;步骤2)、训练非常深度神经网络并修改其误差率饱和状态;步骤3)、判断非常深度神经网络的误差率饱和状态,若误差率饱和状态的值为0,重新执行步骤2),若误差率饱和状态的值小于附加层有效窗口的大小,执行步骤4),若误差率饱和状态的值等于附加层有效窗口的大小,执行步骤5);步骤4)、若非常深度神经网络的当前深度满足用户设定的最大深度,执行步骤5),否则对当前非常深度神经网络执行加层操作,然后重新执行步骤2);步骤5)、输出该非常深度神经网络,训练结束。 | ||
搜索关键词: | 神经网络 误差率 饱和状态 加层 有效窗口 重新执行 附加层 相关参数 用户设定 初始化 训练集 输出 | ||
【主权项】:
1.一种非常深度神经网络的自动加层训练方法,包括:步骤1)、确定训练集、非常深度神经网络的初始结构,并对所述非常深度神经网络及相关参数进行初始化;其中,所述非常深度神经网络为深度在8层以上的神经网络;所述非常深度神经网络的相关参数包括:训练参数、训练误差率、误差率下降阈值、误差率饱和状态以及附加层有效窗口;所述训练参数包括学习率、动量项、训练样本数量;步骤2)、训练非常深度神经网络并修改其误差率饱和状态;步骤3)、判断非常深度神经网络的误差率饱和状态,若误差率饱和状态的值为0,则重新执行步骤2),若误差率饱和状态的值小于附加层有效窗口的大小,则执行步骤4),若误差率饱和状态的值等于附加层有效窗口的大小,则执行步骤5);步骤4)、若非常深度神经网络的当前深度满足用户设定的最大深度,则执行步骤5),否则对当前非常深度神经网络执行加层操作,然后重新执行步骤2);步骤5)、输出当前的非常深度神经网络,训练结束。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院声学研究所;上海尚恩华科网络科技股份有限公司,未经中国科学院声学研究所;上海尚恩华科网络科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201710002088.4/,转载请声明来源钻瓜专利网。