[发明专利]一种神经网络加速器在审
申请号: | 202010574432.9 | 申请日: | 2020-06-22 |
公开(公告)号: | CN111753974A | 公开(公告)日: | 2020-10-09 |
发明(设计)人: | 曾成龙;李远超;蔡权雄;牛昕宇 | 申请(专利权)人: | 深圳鲲云信息科技有限公司 |
主分类号: | G06N3/063 | 分类号: | G06N3/063;G06N3/04;G06F13/28 |
代理公司: | 北京品源专利代理有限公司 11332 | 代理人: | 潘登 |
地址: | 518048 广东省深圳市福田区福保*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 神经网络 加速器 | ||
本发明实施例公开了一种神经网络加速器,包括:卷积计算模块,用于对输入预设神经网络的输入数据进行卷积运算得到第一输出数据;尾部计算模块,用于对第一输出数据进行计算得到第二输出数据;存储模块,用于缓存所述输入数据和第二输出数据;第一控制模块,用于将所述第一输出数据传输到所述尾部计算模块;所述卷积计算模块包括多个卷积计算单元,所述尾部计算模块包括多个尾部计算单元,所述第一控制模块包括多个第一控制单元,至少两个卷积计算单元通过一个第一控制单元与一个尾部计算单元连接。本发明实施例优化了神经网络加速器中尾部计算模块的设计,减少了神经网络加速器的资源消耗。
技术领域
本发明实施例涉及神经网络技术领域,尤其涉及一种神经网络加速器。
背景技术
近年来,卷积神经网络发展迅速,被广泛应用于计算机视觉和自然语言处理。然而,卷积神经网络精度的提升伴随着计算成本和存储成本的快速增加。使用多核中央处理单元(CPU)难以提供足够的算力。虽然图形处理单元(GPU)可以高速处理复杂的卷积神经网络模型,但是功耗过高,在嵌入式系统中的应用受到限制。
基于FPGA和ASIC的卷积神经网络加速器具有高能效和大规模并行处理的特点,逐渐成为一个热门研究课题。由于卷积神经网络有大量的参数且需要进行大量的乘加运算,所以为了在有限的资源下,实现高的卷积神经网络处理性能,这些加速器主要解决的问题是如何提高并行度和降低内存带宽要求。
现有技术中在提升性能时,主要是针对卷积层或者全连接层做优化,然而一个通用性较高的卷积神经网络加速器中,卷积层后往往连接着池化、激活、shortcut、上采样等其他后续处理操作,这里将这些操作命名为尾部计算,这些操作的优化在卷积神经网络加速器设计中同样至关重要。
发明内容
有鉴于此,本发明实施例提供一种神经网络加速器,以实现优化神经网络加速器中的尾部计算,减少资源消耗。
本发明实施例提供一种神经网络加速器,包括:
卷积计算模块,用于对输入预设神经网络的输入数据进行卷积运算得到第一输出数据;
尾部计算模块,用于对第一输出数据进行计算得到第二输出数据;
存储模块,用于缓存所述输入数据和第二输出数据;
第一控制模块,用于将所述第一输出数据传输到所述尾部计算模块;
所述卷积计算模块包括多个卷积计算单元,所述尾部计算模块包括多个尾部计算单元,所述第一控制模块包括多个第一控制单元,至少两个卷积计算单元通过一个第一控制单元与一个尾部计算单元连接。
进一步的,还包括第二控制模块,用于将神经网络计算的输出数据传输到所述存储模块,所述第二控制模块包括多个第二控制单元,至少一个所述尾部计算单元通过一个所述第二控制单元与所述存储模块连接。
进一步的,所述卷积计算模块的数据流动速率小于或等于所述尾部计算模块的数据流动速率。
进一步的,所述卷积计算模块消耗的片上资源与所述尾部计算模块消耗的片上资源之和小于或等于总片上资源。进一步的,还包括:预设参数配置模块,用于配置预设参数,所述预设参数包括卷积核尺寸、输入特征图尺寸、输入数据存储位置和第二输出数据存储位置。
进一步的,所述卷积计算单元包括权值单元、输入特征图单元和卷积核;
所述权值单元用于根据所述卷积核尺寸形成对应的权值;
所述输入特征图单元用于根据所述输入特征图尺寸和所述输入数据存储位置从所述存储模块获取输入数据形成对应的输入特征图;
所述卷积核用于对所述权值和所述输入特征图进行计算。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳鲲云信息科技有限公司,未经深圳鲲云信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010574432.9/2.html,转载请声明来源钻瓜专利网。