[发明专利]一种用于执行神经网络运算的装置有效
申请号: | 201911058910.4 | 申请日: | 2018-09-13 |
公开(公告)号: | CN110689126B | 公开(公告)日: | 2023-04-07 |
发明(设计)人: | 陈天石;刘少礼;王在;胡帅 | 申请(专利权)人: | 上海寒武纪信息科技有限公司 |
主分类号: | G06N3/063 | 分类号: | G06N3/063;G06N3/0464;G06N3/084;G06F9/38 |
代理公司: | 广州三环专利商标代理有限公司 44202 | 代理人: | 郝传鑫;熊永强 |
地址: | 201306 上海*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 用于 执行 神经网络 运算 装置 | ||
本申请提供了一种用于执行神经网络运算的装置,装置包括片上互联模块和与该片上互联单元通信连接的多个神经网络处理模块。
技术领域
本申请属于神经网络运算领域,尤其涉及一种用于执行神经网络运算的装置。
背景技术
随着信息技术的不断发展和人们日益增长的需求,人们对信息的及时性要求也越来越高了。目前,终端设备对信息的获取均是基于通用处理器获得的,例如在通用处理器运行设定应用程序以获知物体当前的位置,或者在通用处理器上运行设定应用程序获知用户当前场景(如室内或室外)等等。但是,这种基于通用处理器运行软件程序来获知信息的方式,受限于通用处理器的运行速率,特别是在通用处理器负荷较大的情况下,信息获取效率较低、时延较长。
申请内容
有鉴于此,本申请提供一种用于执行神经网络运算的装置,能以低开销的方式实现一层或多层多核多层人工神经网络的运算,并且运算性能高效。
本申请提供一种用于执行神经网络运算的装置,包括片上互联模块和与该片上互联单元通信连接的多个神经网络处理模块,其中:
所述神经网络处理模块能够通过所述片上互联模块从其它神经网络处理模块中读写数据;
所述神经网络处理模块包括:存储单元、寄存器单元和向量运算单元;
所述存储单元,用于存储向量;
所述寄存器单元,用于存储向量地址;
向量运算单元,用于获取向量运算指令,根据向量运算指令在所述寄存器单元中获取向量地址,根据该向量地址在存储单元中获取相应的向量,根据获取的向量进行向量运算,得到向量运算结果。
附图说明
图1-1是本披露实施例提供的计算装置的结构示意图。
图1-2是本披露实施例提供的矩阵计算单元的结构示意图。
图1-3是本披露实施例提供的流水级的结构示意图。
图1-4是本披露实施例披露的一种矩阵计算方法的流程示意图。
图1-5是本披露实施例提供的正向和反向运算示意图。
图1-6是本披露实施例提供的指令集的格式示意图。
图1-7是本披露实施例提供的另一种计算装置的结构示意图。
图1-8是本披露实施例提供的计算装置执行矩阵乘向量指令的流程图。
图2-1是本披露提供的用于执行神经网络运算的装置的结构示意图;
图2-2是本披露中神经网络处理模块的结构示意图;
图2-3是本披露中外部存储模块的结构示意图;
图2-4是本披露中神经网络处理单元的结构示意图;
图2-5是本披露中片上互联单元的结构示意图;
图2-6是本披露执行一层全连接层运算实施例的流程图;
图3-1是本披露的指令集的格式示意图;
图3-2是本披露的神经网络运算指令的格式示意图;
图3-3是本披露的矩阵运算指令的格式示意图;
图3-4是本披露的向量运算指令的格式示意图;
图3-5是本披露的矩阵-向量运算指令的格式示意图;
图4-1是本披露提供的一种运算单元的结构示意图。
具体实施方式
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海寒武纪信息科技有限公司,未经上海寒武纪信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911058910.4/2.html,转载请声明来源钻瓜专利网。
- 上一篇:计算装置
- 下一篇:神经网络结构模型搜索方法、装置及存储介质