[发明专利]神经网络加速器有效
申请号: | 202110401500.6 | 申请日: | 2021-04-14 |
公开(公告)号: | CN113159285B | 公开(公告)日: | 2023-09-05 |
发明(设计)人: | 陈柏纲 | 申请(专利权)人: | 广州放芯科技有限公司 |
主分类号: | G06N3/0464 | 分类号: | G06N3/0464;G06N3/084 |
代理公司: | 广州三环专利商标代理有限公司 44202 | 代理人: | 熊永强 |
地址: | 511400 广东省*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 加速器 | ||
1.一种神经网络加速器,其特征在于,所述神经网络加速器包括:
多个PE,其中,所述多个PE分成多个组,所述多个组的每一个组对应输入张量的一部分,与该组对应的输入张量的一部分在神经网络算子下的运算按照与该组对应的状态展开方式展开成多种状态,该组所包括的PE与所述多种状态一一对应并执行所述神经网络算子在对应状态下的运算,
所述神经网络算子包括与卷积核张量进行卷积运算,所述输入张量根据所述卷积核张量在第一滑动方向上的维度而确定多个块,所述多个块与所述多个组一一对应,所述多个块的每一个块在所述神经网络算子下的运算根据所述卷积核张量在所述第一滑动方向上的维度和第一滑动步长而展开成与该块对应的该组所包括的PE所对应的多种状态,
所述多个块的每一个块在所述神经网络算子下的运算被展开而得到的多种状态各自对应所述卷积核张量在该块中按照所述第一滑动步长在所述第一滑动方向上逐次滑动时所覆盖的所述输入张量的各个输入子张量,所述多个组的每一个组所包括的PE执行所述神经网络算子在对应状态下的运算,包括:执行与所述对应状态对应的输入子张量和所述卷积核张量之间的卷积运算。
2.根据权利要求1所述的神经网络加速器,其特征在于,所述多个块彼此之间互不重叠,所述多个块中的每一个块在所述第一滑动方向上的维度与所述卷积核张量在所述第一滑动方向上的维度相同。
3.根据权利要求1所述的神经网络加速器,其特征在于,所述多个PE组成PE序列,所述多个组在所述PE序列上分布且彼此互不重叠,所述PE序列的每一个PE将包括该PE所在的组和该PE在该PE所在的组内的次序的跟踪逻辑TL传递给在所述PE序列中紧邻在前的PE。
4.根据权利要求3所述的神经网络加速器,其特征在于,所述PE序列的每一个PE根据所接收的TL确定该PE所在的组和该PE在该PE所在的组内的次序,从而执行所述神经网络算子在对应状态下的运算。
5.根据权利要求3所述的神经网络加速器,其特征在于,所述神经网络算子的计算参数的变化被反馈给所述PE序列的最后一个PE并用于改变所述最后一个PE所传递的TL。
6.根据权利要求3所述的神经网络加速器,其特征在于,所述神经网络算子的计算参数的变化被反馈给所述PE序列的至少两个PE并用于改变所述至少两个PE所传递的TL,所述至少两个PE包括所述PE序列的最后一个PE。
7.根据权利要求1所述的神经网络加速器,其特征在于,所述多个PE组成PE序列,所述多个组在所述PE序列上分布且彼此互不重叠,所述PE序列的每一个PE从同一组合逻辑读取各自的TL,所述PE序列的每一个PE根据各自的PE确定该PE所在的组和该PE在该PE所在的组内的次序以及该PE的输出对象从而执行所述神经网络算子在对应状态下的运算,所述组合逻辑根据所述PE序列的每一个PE的TL确定。
8.根据权利要求7所述的神经网络加速器,其特征在于,所述神经网络算子的计算参数的变化被反馈给所述PE序列的至少一个PE并用于改变所述至少一个PE的TL从而改变所述组合逻辑。
9.根据权利要求5、6或者8中任一项所述的神经网络加速器,其特征在于,所述神经网络算子的计算参数的变化包括,所述输入张量的尺寸,所述卷积核张量的尺寸或者所述第一滑动步长的变化。
10.根据权利要求1所述的神经网络加速器,其特征在于,所述神经网络算子包括池化层计算、全连接层计算或者卷积层计算。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州放芯科技有限公司,未经广州放芯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110401500.6/1.html,转载请声明来源钻瓜专利网。