[发明专利]卷积神经网络加速器及其执行卷积运算操作的方法在审
申请号: | 201811555963.2 | 申请日: | 2018-12-19 |
公开(公告)号: | CN111340201A | 公开(公告)日: | 2020-06-26 |
发明(设计)人: | 王嘉炜 | 申请(专利权)人: | 北京地平线机器人技术研发有限公司 |
主分类号: | G06N3/063 | 分类号: | G06N3/063 |
代理公司: | 北京市正见永申律师事务所 11497 | 代理人: | 黄小临;冯玉清 |
地址: | 100080 北京*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积 神经网络 加速器 及其 执行 运算 操作 方法 | ||
公开了一种卷积神经网络加速器及其执行卷积运算操作的方法,包括:从片外存储器读取输入数据和卷积运算参数到计算引擎,所述输入数据为第一张量数据在通道方向上的部分数据,所述卷积运算参数中卷积核的通道数与所述输入数据的通道数相同;计算引擎使用所述输入数据和卷积运算参数执行卷积运算操作,以获得输出数据;以及,将所述输出数据存储到所述片外存储器中。本申请在不增加硬件成本的前提下提高了卷积神经网络加速器执行卷积神经网络运算的速度。
技术领域
本申请涉及人工智能技术领域,尤其涉及一种卷积神经网络加速器及其执行卷积运算操作的方法。
背景技术
卷积神经网络已成功应用于图像处理、自动驾驶等诸多领域。卷积神经网络中涉及的乘加运算的运算量会随着卷积神经网络层级的增多而增加,不仅对用于卷积神经网络运算的卷积神经网络加速器的处理性能提出了更高的要求,而且卷积神经网络加速器的处理速度也会随着卷积神经网络层级的增多而降低。
因此,期望提供一种新的执行卷积运算操作的方法及卷积神经网络加速器,以在不增加硬件成本的前提下提高卷积神经网络加速器执行卷积神经网络运算的速度。
发明内容
本申请的实施例提供了一种卷积神经网络加速器及其执行卷积运算操作的方法。
根据本申请的一个方面,提供了一种卷积神经网络加速器执行卷积运算操作的方法,包括:
从片外存储器读取输入数据和卷积运算参数到计算引擎,所述输入数据为第一张量数据在通道方向上的部分数据,所述卷积运算参数中卷积核的通道数与所述输入数据的通道数相同;
计算引擎使用所述输入数据和卷积运算参数执行卷积运算操作,以获得输出数据;以及
将所述输出数据存储到所述片外存储器中。
根据本申请的另一方面,提供了一种卷积神经网络加速器,包括:计算引擎和片外存储器;其中,所述计算引擎配置为执行上述执行卷积运算操作的方法。
根据本申请的另一方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行上述执行卷积运算操作的方法。
通过本申请实施例的方法和/或装置,执行卷积运算操作时的输入数据通道数小于张量数据的通道数,卷积运算的运算量随之减少,卷积神经网络加速器执行卷积运算操作的速度便相应提高,对卷积神经网络加速器的处理性能上的需求也相应降低,从而在不增加硬件成本的前提下提高了卷积神经网络加速器执行卷积神经网络运算的速度。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是本申请一示例性实施例提供的一卷积神经网络加速器的结构示意图。
图2是本申请一示例性实施例提供的另一卷积神经网络加速器的结构示意图。
图3是本申请一示例性实施例提供的卷积神经网络加速器执行卷积运算操作的方法的流程示意图。
图4是本申请一示例性实施例提供的分组卷积示例的示意图。
图5是本申请一示例性实施例提供的一张量数据在卷积神经网络加速器的片外存储器中的排布示意图。
图6是本申请一示例性实施例提供的一张量数据中的部分数据在卷积神经网络加速器的缓冲存储器中的排布示意图。
图7是本申请一示例性实施例提供的读取一卷积运算操作的输入数据到缓冲存储器的一示例图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京地平线机器人技术研发有限公司,未经北京地平线机器人技术研发有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811555963.2/2.html,转载请声明来源钻瓜专利网。