[发明专利]层数增减深度学习神经网络训练方法、系统、介质和设备有效

专利信息
申请号: 201810823422.7 申请日: 2018-07-25
公开(公告)号: CN108985456B 公开(公告)日: 2021-06-22
发明(设计)人: 朱定局 申请(专利权)人: 大国创新智能科技(东莞)有限公司
主分类号: G06N3/08 分类号: G06N3/08;G06N3/04
代理公司: 广州市华学知识产权代理有限公司 44245 代理人: 李君
地址: 523000 广东省东莞市松山湖高新技术产*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种层数增减深度学习神经网络训练方法、系统、介质和设备,所述方法包括:将训练输入数据输入当前深度学习神经网络,通过当前深度学习神经网络计算得到第一输出数据;判断第一输出数据与预期输出数据是否相同;若不符合第一预设条件,则在当前深度学习神经网络中分类器之前增加一个隐层;否则,将测试输入数据输入当前深度学习神经网络,通过深度学习神经网络计算得到第二输出数据;判断第二输出数据与真实结果数据是否相同;若不符合第二预设条件,则将当前深度学习神经网络中分类器的前一个隐层删除;否则,输出当前深度学习神经网络。本发明能达到充分拟合时顶层概念就是刚好足以与输出数据进行充分拟合的概念。
搜索关键词: 层数 增减 深度 学习 神经网络 训练 方法 系统 介质 设备
【主权项】:
1.层数增减深度学习神经网络训练方法,其特征在于:所述方法包括:通过样本训练当前深度学习神经网络;其中,所述当前深度学习神经网络包括输入层、隐层、分类器和输出层;将训练输入数据输入当前深度学习神经网络,通过当前深度学习神经网络计算得到第一输出数据;判断第一输出数据与训练输入数据对应的预期输出数据是否相同;当第一输出数据与训练输入数据对应的预期输出数据不相同的数量不符合第一预设条件时,在当前深度学习神经网络中分类器之前增加一个隐层;当第一输出数据与训练输入数据对应的预期输出数据不相同的数量符合第一预设条件时,将测试输入数据输入当前深度学习神经网络,通过深度学习神经网络计算得到第二输出数据;判断第二输出数据与测试输入数据对应的真实结果数据是否相同;当第二输出数据与测试输入数据对应的真实结果数据不相同的数量不符合第二预设条件时,将当前深度学习神经网络中分类器的前一个隐层删除;当第二输出数据与测试输入数据对应的真实结果数据不相同的数量符合第二预设条件时,输出当前深度学习神经网络。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于大国创新智能科技(东莞)有限公司,未经大国创新智能科技(东莞)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201810823422.7/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top