[发明专利]神经网络处理器在审
申请号: | 201980092225.5 | 申请日: | 2019-12-20 |
公开(公告)号: | CN113424201A | 公开(公告)日: | 2021-09-21 |
发明(设计)人: | K.H.李;S.拉维库马尔;P.唐内利;D.罗森班德 | 申请(专利权)人: | 伟摩有限责任公司 |
主分类号: | G06N3/063 | 分类号: | G06N3/063;G06N3/04 |
代理公司: | 北京市柳沈律师事务所 11105 | 代理人: | 金玉洁 |
地址: | 美国加利*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 处理器 | ||
1.一种用于对包括多个神经网络层的神经网络执行计算的电路,所述电路包括:
处理设备,被配置为处理数据信号并提供用于执行所述计算的编程数据;以及
核心,与所述处理设备进行数据通信,以接收由所述处理设备提供的所述编程数据,其中所述核心包括:
激活存储器,被配置为存储层输入集;
参数存储器,被配置为存储用于第一神经网络层的参数;
旋转单元,被配置为基于所述编程数据,旋转访问来自所述激活存储器的所述层输入集;
计算单元,具有多个计算单元格,所述多个计算单元格中的至少一个计算单元格被配置为:
i)接收用于所述第一神经网络层的、由所述旋转单元访问的所述层输入集的输入,
ii)接收用于所述第一神经网络层的参数,以及
iii)使用所述输入和所述参数生成所述第一神经网络层的输出的至少一部分;以及
交叉开关单元,被配置为根据基于所述编程数据和分配给第二神经网络层的属性值的库分配模式,使所述第一神经网络层的所述输出被存储在所述激活存储器中。
2.根据权利要求1所述的电路,其中,所述旋转单元还被配置为旋转输入张量的元素,其中所述输入张量的每个元素对应于存储在所述激活存储器中的输入集的相应的输入。
3.根据权利要求2所述的电路,其中,所述旋转单元还被配置为:
基于第一旋转因子沿所述输入张量的第一维度旋转所述输入张量的元素;
基于不同于所述第一旋转因子的第二旋转因子,沿所述输入张量的不同的第二维度旋转所述输入张量的元素;以及
向所述计算单元的计算单元格提供与旋转的所述输入张量的元素相对应的输入。
4.根据权利要求1所述的电路,其中,所述交叉开关单元还被配置为:
响应于处理所述库分配模式,确定所述输出中的激活的映射,其中所述映射基于分配给所述第二神经网络层的所述属性值,标识用于存储用于所述第二神经网络层的所述激活的所述激活存储器的存储器库。
5.根据权利要求4所述的电路,其中,所述交叉开关单元还被配置为:
使得用于所述第一神经网络层的所述输出的数据被存储在所述激活存储器的特定地址位置处,用于所述输出的所述数据基于针对所述神经网络的不同相应层改变的可配置映射被分配到所述激活存储器的地址位置。
6.根据权利要求4所述的电路,其中:
所述旋转单元还被配置为访问用于所述第一神经网络层的所述输出的输出数据,作为到所述第二神经网络层的层输入,用于在所述第二神经网络层处进行处理;以及
所确定的映射被配置使得当所述旋转单元访问对应于所述第一神经网络层的所述输出的、用于所述第二神经网络层的层输入时,在所述激活存储器的所述存储器库处不发生库冲突。
7.根据权利要求1所述的电路,其中,分配给所述第二神经网络层的所述属性值为:
用于所述第二神经网络层的步幅值,或者
用于所述第二神经网络层的跳过值。
8.根据权利要求1所述的电路,其中,所述核心被配置为:
使用所述旋转单元访问存储在所述激活存储器的第一组存储器库中的层输入,而不发生库冲突;以及
使用所述交叉开关单元将层输出存储在所述激活存储器的第二组存储器库中,而不发生库冲突。
9.根据权利要求7所述的电路,其中,所述核心被配置为:
将所述旋转单元的基于旋转的数据访问操作与所述交叉开关单元的基于模式的数据存储操作进行同步,以实现所述计算单元的利用率超过阈值利用率。
10.根据权利要求1所述的电路,其中,所述处理设备被配置为:
从外部控制器接收包括要在所述核心处使用的数据值的指令;以及
至少向所述核心提供所述指令的所述数据值,用于存储在所述核心的组件处。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于伟摩有限责任公司,未经伟摩有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201980092225.5/1.html,转载请声明来源钻瓜专利网。