[发明专利]一种对任意深度神经网络优化其运行功能时所需存储的方法在审

专利信息
申请号: 201910980066.4 申请日: 2019-10-15
公开(公告)号: CN110766135A 公开(公告)日: 2020-02-07
发明(设计)人: 杨旭光;林森;孙凌阁 申请(专利权)人: 北京芯启科技有限公司
主分类号: G06N3/04 分类号: G06N3/04
代理公司: 11453 北京名华博信知识产权代理有限公司 代理人: 李冬梅
地址: 100091 北京市海淀区上地*** 国省代码: 北京;11
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 有向图 神经网络优化 高效复用 静态分配 内存管理 偏移地址 神经网络 网络转化 运行时 存储 输出 灵活 转化 探索 分析 管理
【权利要求书】:

1.一种专用于深度卷积神经网络优化其运行功能时所需内存的方法,其特征包括:

静态分配:在神经网络运行前,就根据神经网络的配置静态分配内存空间;

高效复用:在神经网络运行中,直接复用相同的存储空间用于可复用的层之间的数据存放;

灵活操作:在神经网络运行前,就根据神经网络的配置初始化了存储区描述和数据描述的指针,偏移量,长度,层编号;在神经网络运行中,根据存储区描述和数据描述值,通过简单计算就可以获取神经网络层数据项的在存储区地址,完成读写操作。

2.根据权利要求1所述的数据区,其特征在于,该存储区分配只读和读写两种。只读数据静态分配,只能初始化和读取,不能更新,不能复用。可读写数据静态分配,可以读写和复用。

3.根据权利要求2所述的层数据描述区,其特征在于,该数据区将神经网络的每层数据的每项数据根据神经网络的配置进行只读,读写的数据描述初始化;对于一层数据输出作为后面一层输入的读写数据进行layer_rw0,layer_rw1的可复用分配;对于神经网络某层输出要作为后面一层之后某层输入或对于神经网络某层输出要作为神经网络最后输出结果的数据,在layer_rw0,layer_rw1中进行保留,不会被后面其它层输出改写。

4.根据权利要求1所述的所支持的存储空间静态分配及复用的功能,其特征在于,在神经网络进行部署推断之前,先行进行算法编译,在这种编译的过程中,会根据对算法的特定自动化分析,对数据区间进行复用;在编译结束后,所有的数据区间都将得到静态的分配。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京芯启科技有限公司,未经北京芯启科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201910980066.4/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top