[发明专利]卷积计算加速器、卷积计算方法及卷积计算设备有效
申请号: | 201810259875.1 | 申请日: | 2018-03-27 |
公开(公告)号: | CN110210610B | 公开(公告)日: | 2023-06-20 |
发明(设计)人: | 张博;于潇宇;王玉伟;张立鑫 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | G06N3/063 | 分类号: | G06N3/063;G06N3/0464;G06F17/15;G06T1/40 |
代理公司: | 北京三高永信知识产权代理有限责任公司 11138 | 代理人: | 刘映东 |
地址: | 518057 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积 计算 加速器 计算方法 设备 | ||
本申请是关于一种卷积计算加速器、卷积计算方法及卷积计算设备,涉及电子电路技术领域。该卷积计算加速器包括:控制器、计算矩阵以及第一缓存,计算矩阵中包含至少一行计算单元,每行计算单元中包含至少两个计算单元;控制器,用于控制将载入至第一缓存的输入数据输入至对应行的计算单元中,由对应行的计算单元将输入数据在对应行的计算单元中进行传输;对应行的计算单元中的每一个计算单元将接收到的输入数据与预先存储的卷积核进行卷积计算,处于同一行的至少两个计算单元复用同一份输入数据,且只需要一个输入通道,从而降低了计算矩阵的缓存容量和输入带宽需求,提高了计算矩阵的可扩展性。
技术领域
本申请涉及电子电路技术领域,特别涉及一种卷积计算加速器、卷积计算方法及卷积计算设备。
背景技术
在数据处理领域,很多数据处理过程,比如通过卷积神经网络(ConvolutionalNeural Network,CNN)进行图像处理过程,需要进行大量的卷积计算步骤。
在相关技术中,计算机设备可以借助于通过硬件加速的方式来加快卷积计算的计算速度,具体比如,计算机设备可以连接专用的卷积计算加速器,该卷积计算加速器中包含有计算矩阵、控制器以及输入缓存,该计算矩阵中包含若干个计算单元,其中,每个计算单元对应的输入数据独立缓存,并在进行卷积计算时,由控制器直接控制输送至对应的计算单元,由该计算单元将该输入数据与卷积核进行卷积计算。
在相关技术中,由于计算矩阵中的各个计算单元的输入数据各自独立缓存,且由控制器直接控制输送至对应的计算单元,这就需要为卷积计算加速器设计较高的缓存容量和输入带宽,影响计算矩阵的扩展性。
发明内容
本申请实施例提供了一种卷积计算加速器、卷积计算方法及卷积计算设备,可以解决相关技术中计算矩阵中的各个计算单元的输入数据各自独立缓存,且由控制器直接控制输送至对应的计算单元,需要为卷积计算加速器设计较高的缓存容量和输入带宽,影响计算矩阵的扩展性的问题,技术方案如下:
一方面,提供了一种卷积计算加速器,所述卷积计算加速器包括:控制器、计算矩阵以及第一缓存,所述计算矩阵中包含至少一行计算单元,每行计算单元中包含至少两个计算单元,且每行计算单元中的相邻两个计算单元相连;
所述控制器,用于控制将每一行计算单元的输入数据载入至所述第一缓存;
所述控制器,还用于控制将载入至所述第一缓存的输入数据输入至对应行的计算单元中,由所述对应行的计算单元将所述输入数据在所述对应行的计算单元中进行传输;
所述对应行的计算单元中的每一个计算单元,用于将接收到的输入数据与预先存储的卷积核进行卷积计算。
另一方面,提供了一种卷积计算方法,
用于卷积计算加速器中,所述卷积计算加速器包括控制器、计算矩阵以及第一缓存,所述计算矩阵中包含至少一行计算单元,每行计算单元中包含至少两个计算单元,且每行计算单元中的相邻两个计算单元相连,所述方法包括:
输入数据对应行的计算单元将所述输入数据在所述对应行的计算单元中进行传输,所述输入数据由所述控制器控制输入至所述对应行的计算单元;
所述对应行的计算单元中的每一个计算单元,将接收到的输入数据与预先存储的卷积核进行卷积计算。
另一方面,提供了一种现场可编程门阵列(Field-Programmable Gate Array,FPGA),所述FPGA包括:至少一个上述的卷积计算加速器。
又一方面,提供了一种卷积计算设备,所述卷积计算设备包括:至少一个上述的卷积计算加速器。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810259875.1/2.html,转载请声明来源钻瓜专利网。