[发明专利]一种流执行方法及装置有效
申请号: | 201611221799.2 | 申请日: | 2016-12-26 |
公开(公告)号: | CN106845631B | 公开(公告)日: | 2020-05-29 |
发明(设计)人: | 陈云霁;李韦;杜子东;郭崎;陈天石 | 申请(专利权)人: | 上海寒武纪信息科技有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06F9/38 |
代理公司: | 北京华进京联知识产权代理有限公司 11606 | 代理人: | 孙岩 |
地址: | 201203 上海市浦东*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 执行 方法 装置 | ||
一种流执行方法及装置,该方法包括:预处理步骤,获得指令描述符流;层优化步骤,优化指令描述符流;以及构建指令流,根据所述优化后的指令描述符流构建指令流。
技术领域
本发明涉及人工神经网络技术领域,更具体地涉及一种流执行方法及装置,用于神经网络处理器。
背景技术
深度学习是机器学习的分支,它试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。
深度学习是机器学习中一种基于对数据进行表征学习的方法。观测值(例如一幅图像)可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等。而使用某些特定的表示方法更容易从实例中学习任务(例如,人脸识别或面部表情识别)。
至今已有数种深度学习框架,如深度神经网络、卷积神经网络和深度信念网络和递归神经网络已被应用计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。另外,深度学习已成为类似术语,或者说是神经网络的品牌重塑。
随着深度学习(神经网络)的大热,神经网络处理器也应运而生,通过专门的内存和运算模块设计,神经网络处理器在进行深度学习运算时可以获得相比较通用处理器几十甚是上百倍的加速比,并且面积更小,功耗更低。
为了方便应用神经网络处理器在各种不同网络结构上进行加速运算,如何高效的实现对神经网络处理器的功能重构也是一项非常重要的工作。在传统的神经网络处理器编程接口的编写过程中,为了实现最大限度的原子性和灵活性,接口的基本功能定义都以神经网络运算中的常用原子操作作为基础,例如卷积(Convolution),池化(Pooling),激活(Active)等。然而神经网络处理器由于其独特的内部体系结构设计,过于细小的原子操作的简单顺序拼接无法充分发挥它的硬件性能。
发明内容
鉴于现有方案存在的问题,为了克服上述现有技术方案的不足,本发明提出了一种流执行方法。
根据本发明的一个方面,提供了一种流执行方法,包括:预处理步骤,获得指令描述符流;层优化步骤,优化指令描述符流;以及构建指令流,根据所述优化后的指令描述符流构建指令流。
根据本发明的另一个方面,提供了一种流执行装置,包括:预处理模块,用于获得指令描述符流;层优化模块,用于优化指令描述符流;以及指令流构建模块,用于根据所述优化后的指令描述符流构建指令流。
从上述技术方案可以看出,本发明具有以下有益效果:
通过构建指令描述符流并优化实现了对神经网络处理器更高效的功能重构,以期望在运用神经网络加速器进行神经网络方面运算时可以获得相比较传统处理器更高的加速比;
采用层消除处理和/或层融合处理优化指令描述符流,-克服了用卷积,池化,激活等细粒度原子操作组成完整神经网络并进行完整运算时-产生的意外IO开销和-意外的冗余操作。
附图说明
图1为本发明一实施例流执行方法的流程图;
图2为图1中层消除处理的流程图;
图3为图1中层融合处理的流程图;
图4为本发明另一实施例流执行装置的示意图。
具体实施方式
本发明某些实施例于后方将参照所附附图做更全面性地描述,其中一些但并非全部的实施例将被示出。实际上,本发明的各种实施例可以许多不同形式实现,而不应被解释为限于此数所阐述的实施例;相对地,提供这些实施例使得本发明满足适用的法律要求。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海寒武纪信息科技有限公司,未经上海寒武纪信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611221799.2/2.html,转载请声明来源钻瓜专利网。